La tecnologia sta facendo passi da gigante in tutti i settori e in particolare le applicazioni dell’intelligenza artificiale aprono nuove prospettive, compreso quello militare. Qui esse stanno portando alla realizzazione di LAWS (Lethal Autonomous Weapons Systems), cioè sistemi d’arma autonomi in grado di individuare, selezionare e attaccare l’obiettivo senza l’azione umana.
I mass media li chiamano con un termine ad effetto i killer robot, facendo venire in mente i film hollywoodiani tipo Robocop o Terminator. Non siamo ancora a quel livello, ma almeno sperimentalmente si stanno avviando tantissimi progetti presso diversi stati tra cui USA, Russia, Cina, Francia, Inghilterra ed Israele. In particolare i governi degli Stati Uniti, Russia e Cina continuano ad investire fortemente su sviluppo LAWS coinvolgendo sia i dipartimenti di difesa, sia i produttori di armi, sia le università.
Quali sono i vantaggi?
Hanno tempi di reazione brevissimi, elevata precisione, non subiscono lo stress emotivo in situazioni di conflitto riducendo al massimo l’eventualità di colpire per errore dei civili (i cosiddetti “danni collaterali”), si possono attivare solo in caso di evidente e certo atto aggressivo. Non da ultimo, evitano la possibilità di perdita di vite umane da parte delle forze armate che le utilizzano: la guerra dei robot killer sarebbe uno scontro tra macchine sofisticate prodotte da industrie (in caso di parità) o tra uomini e macchine.
Scenari da fantascienza? Non tanto, dato che si stima che l’impatto economico dell’intelligenza artificiale (civile e militare) si aggirerà sui 13 trilioni (miliardi di miliardi) di dollari entro il 2030. E già si sta lavorando alacremente a sistemi d’arma ravvicinata o a corto raggio, aerei da combattimento senza equipaggio, munizioni guidate di precisione, veicoli terrestri e marini senza equipaggio, munizioni loitering (bighellone) che volano autonomamente finché non trovano l’obiettivo per poi attaccarlo. Il controllo militare praticamente diviene inesistente e l’arma autonoma fa tutto da sola.
La guerra che verrà
J.C. Rossi già nel novembre 2016, in uno studio intitolato La guerra che verrà: le armi autonome, parlava di «una tecnologia che allontanando l’uomo dalla programmazione e gestione di una macchina, lo sostituisce con un’intelligenza artificiale che eviti quei rischi che le pulsioni umane, invece, non escludono».
Tali armi autonome in realtà possono operare a diversi livelli: con un controllo umano prevalente (human in the loop), con un controllo umano limitato solo alle fasi iniziali (human on the loop), con l’assenza del controllo umano e con una totale “autonomia” (human out the loop).
È qui che numerosi scienziati ed esperti hanno ravvisato enormi pericoli: la perdita del controllo umano sulla macchina può essere estremamente dannosa. Come può una macchina, per quanto sofisticata, comprendere che l’avversario si vuole arrendere o che non è più in grado neppure di manifestare tale volontà, in quanto ferito, o che l’obiettivo attaccato è un civile presente nell’area?
L’intelligenza artificiale può sbagliare o essere tratta in inganno dall’avversario, mentre il processo di autoapprendimento basato sull’azione di diversi algoritmi (machine learning) può portare a risultati finali imprevedibili. Come si comporterà effettivamente in un vero campo di battaglia?
Dubbi e questioni aperte
Se l’intelligenza artificiale può essere altamente utile in campo civile, in ambito militare lascia senza risposta molti interrogativi. Se un civile si avvicina per sbaglio o per necessità all’area presidiata dai LAWS, essi saranno in grado di distinguere e di non attaccare? Un aereo costretto a un atterraggio d’emergenza, o una persona in fuga da una minaccia, potranno essere compresi nelle loro motivazioni da un LAWS? Il programmatore avrà saputo inserire modalità di riconoscimento?
E inoltre, se il LAWS sbaglia la colpa è del programmatore, del componente difettoso, della squadra di manutenzione, della ditta che lo ha installato, di chi lo ha acquistato selezionandolo senza le dovute cautele, dei politici che lo hanno voluto? La catena delle responsabilità diviene sempre più labile ed opaca.
Di fronte a una manifestazione di protesta con lancio di oggetti, come reagirà il LAWS? Interrogativi senza risposta, finché non sarà testato direttamente in uno di questi casi: l’errore, però, consisterà in vite umane spezzate. Di volta in volta gli ingegneri, i programmatori e i tecnici potranno correggere gli errori e migliorare l’arma autonoma, ma il costo non sarà trascurabile.
IRIAD: uno studio recente
Già nel 2012 numerosi ricercatori di robotica sottoscrivono appello per proibizione dei LAWS. Nel 2013 viene lanciata la campagna «Stop Killer Robots», che sensibilizza progressivamente governi e opinione pubblica internazionale sulla tematica, tanto che nel 2017 si costituisce un Gruppo di esperti governativi che nel 2019 raggiunge un accordo su un rapporto che include 11 principi-guida, condiviso nel novembre 2019 durante Conferenza CCW a Ginevra dagli Stati partecipanti. Ad oggi 30 Paesi hanno chiesto la messa al bando delle LAWS, ma il dibattito è in corso e un eventuale accordo globale appare ancora lontano.
Un recentissimo studio dell’Istituto di Ricerche Internazionali Archivio Disarmo, intitolato LAWS Lethal Autonomous Weapons Systems. La questione delle armi letali autonome e le possibili azioni italiane ed europee per un accordo internazionale in materia, mette in evidenza non solo il quadro della ricerca e le questioni giuridiche, ma anche l’attuale inaffidabilità di tali tecnologie, rilevando come i sistemi di intelligenza artificiale siano vulnerabili a tutti gli attacchi cibernetici che sfruttano vulnerabilità dei normali sistemi informatici. Appare dunque necessario che, prima di utilizzare operativamente fuori dai laboratori questi sistemi, si valutino adeguatamente le implicazioni di natura etica, sociale e di diritto internazionale.
- Maurizio Simoncelli è vicepresidente e cofondatore dell’Istituto di ricerche internazionali Archivio disarmo – Iriad. Il suo testo è ripreso dal sito della Rivista Confronti, 23 luglio 2020.