I dibattiti etici sulla guerra stanno entrando in una nuova era con le armi autonome letali che possono commettere crimini di guerra senza che di fatto sia possibile individuare i criminali responsabili. I «Lethal Autonomous Weapons Systems» (LAWS) stanno sollevando molteplici e gravi questioni etiche, in quanto il fattore umano viene praticamente escluso dal controllo ultimo circa la loro potenzialità letale.
La prima vittima
Queste armi autonome, o robot killer, hanno già fatto la loro prima vittima nel corso del 2020, stando a un recente rapporto del Consiglio di Sicurezza delle Nazioni Unite sulla guerra civile libica. A differenza delle armi semi-autonome, come i droni, l’operatività dei LAWS non è controllata dall’uomo e le decisioni sulla vita e la morte vengono lasciate a sensori, software e processi automatici, che eliminano la pietà e altre valutazioni umane dal campo di battaglia.
Nazioni come l’India, la Cina e la Corea del Sud hanno già iniziato a usare i LAWS. Con il tipo di rivalità militare presente nella regione, le armi automatiche trovano in Asia un posto rilevante nei piani militari di tanti Stati. L’Asia, d’altra parte, è sempre stata il terreno di «prova» delle armi più avanzate, e in alcuni casi l’impatto e le conseguenze ancora insistono sulla vita di milioni di persone che non hanno mai preso parte a nessuna guerra (si pensi alla bomba atomica in Giappone).
Ma sono le forze armate di tutto il mondo a rivolgersi alle armi letali autonome. Solo gli USA hanno stanziato 18 miliardi di dollari per il loro sviluppo tra il 2016 e il 2020. La Russia è un altro paese che sta decisamente investendo su queste armi. Dato che sempre più paesi sviluppano armi intelligenti capaci di distruzione di massa, sarebbe importante avere leggi internazionali per controllarne l’utilizzo. Purtroppo, finora c’è stato poco consenso internazionale su come affrontare il tema della rimozione della responsabilità umana nella decisione di uccidere.
Sullo strumento giuridico internazionale
La sesta Conferenza di revisione della Convenzione sulla proibizione o limitazione dell’uso di alcune armi convenzionali, nella sua riunione quinquennale tenutasi a Ginevra dal 13 al 17 dicembre 2021, si era posta l’obiettivo di riconoscere la necessità di tracciare norme e linee morali per assicurare un controllo umano sull’uso delle armi autonome letali e aveva anche l’ambizione di iniziare i negoziati su uno strumento giuridicamente vincolante. La Conferenza è terminata con l’indicazione a «considerare proposte», ad elaborare possibili misure «prendendo in considerazione protocolli esistenti», rinviando tutto a nuove discussioni nel 2022.
Quasi 68 nazioni e molte ONG, tra cui il Comitato Internazionale della Croce Rossa (ICRC), avevano chiesto l’elaborazione di uno strumento normativo all’ONU, ma diverse nazioni, tra cui la Russia, l’India e gli USA hanno decisamente frenato.
La Santa Sede ha espresso il suo disappunto per il nulla di fatto sullo strumento giuridico. Alla conferenza di Ginevra, mons. John Putzer, incaricato della Missione permanente di Osservatore della Santa Sede presso l’ONU a Ginevra, ha sottolineato la delusione del Vaticano e ribadito che, a parere della Santa Sede, nell’utilizzo delle armi «è imperativo assicurare una supervisione umana adeguata, significativa e coerente», poiché solo gli esseri umani «sono in grado di vedere i risultati delle loro azioni e comprendere le connessioni tra causa ed effetto».
Il rappresentante vaticano ha anche proposto «la creazione di un’organizzazione internazionale per l’intelligenza artificiale, per facilitare e garantire il diritto di tutti gli Stati a partecipare allo scambio più completo possibile di informazioni scientifiche e tecnologiche per usi pacifici e per il bene comune di tutta la famiglia umana». In questo tempo di pandemia appare quanto mai importante «mettere le tecnologie emergenti al servizio dell’umanità per usi pacifici e per lo sviluppo umano integrale».
Una grave lacuna
Si sa che le persone sono ritenute responsabili delle loro azioni anche in tempo di guerra, come è stato per Slobodan Milosevic, ex presidente della Jugoslavia, accusato di crimini contro l’umanità e crimini di guerra nel 2011. Ma le armi autonome possono essere ritenute responsabili dell’uccisione di vite umane? Di chi sarà la responsabilità nel caso in cui un robot commettesse un crimine di guerra? Chi affronterà il processo? L’arma? I militari? I produttori? Si palesa una grave lacuna nell’assegnazione delle responsabilità in termini legali e morali.
Oggi si riconosce che i quadri normativi esistenti non sono in grado di affrontare e dirimere le gravi questioni sollevate dall’utilizzo delle armi autonome, le quali rendono estremamente difficile (se non impossibile) stabilire una precisa responsabilità sugli esiti del loro impiego. Appare dunque urgente e necessario l’impegno comune per darsi gli strumenti a livello internazionale al fine di poter stabilire se le armi-robot saranno in futuro autorizzate a prendere decisioni autonome sulla vita o sulla morte.
- Da un resoconto pubblicato sul sito dell’agenzia UCA News, 4 gennaio 2022.