Intervento dell’Osservatore permanente della Santa Sede presso le Nazioni Unite e altri Organismi internazionali a Ginevra, l’arcivescovo Ivan Jurković, pronunciato lo scorso 9 aprile alla riunione degli esperti governativi sulla questione delle armi letali autonome (Lethal Autonomous Weapons Sistems). Nostra traduzione dall’originale inglese (qui).
Signor presidente,
la delegazione della Santa Sede desidera ringraziarla per la sua guida durante le sessioni del Gruppo di esperti governativi, insieme agli illustri membri della delegazione dell’India. La questione delle armi letali autonome (Lethal Autonomous Weapons Systems) è nella nostra agenda per il quinto anno consecutivo; ci attendiamo per questo risultati sostanziali e auspichiamo che possa finalmente essere stabilito un quadro giuridico ed etico consensuale.
La Santa Sede riconosce le difficoltà e resistenze esistenti nel prevedere e comprendere fino in fondo le implicazioni delle armi autonome. Una cosa tuttavia è chiara: il loro sviluppo ci darà la capacità di un cambiamento irreversibile nella natura della guerra, la quale diverrà ancora più disumana, mettendo in discussione l’umanità delle nostre società e costringendo tutti gli stati a una revisione delle loro capacità militari.
Qualsiasi intervento con un’arma va attentamente valutato e si deve sempre verificare la sua legittimità, legalità e conformità agli scopi, che devono a loro volta essere eticamente e legalmente legittimati. Le sfide odierne rendono tali valutazioni sempre più complesse e sempre più sfumate per essere affidate a una macchina la quale, ad esempio, sarebbe incapace di affrontare dilemmi morali o questioni sollevate dall’applicazione del cosiddetto principio del «duplice effetto».
Per questo motivo, la nostra delegazione suggerisce come possibile e auspicabile la considerazione del principio di «non contraddizione antropologica» quale punto di riferimento comune per la discussione. In altre parole, qualsiasi tecnologia, incluse le armi autonome, per essere accettabile deve essere compatibile e coerente con la corretta concezione della persona umana, fondamento stesso del diritto e dell’etica.
Signor presidente,
La robotizzazione e disumanizzazione della guerra, in particolare mediante l’uso dell’intelligenza artificiale e del machine learning negli armamenti, porta con sé numerose questioni e contraddizioni etiche e legali. Permettetemi di elencarne alcune.
Un sistema di armi autonomo non può mai essere un soggetto moralmente responsabile. La capacità unicamente umana di giudizio morale e di decisione etica è più di una complessa serie di algoritmi e tale capacità non può essere sostituita da, o programmata in una macchina. L’applicazione di regole o principi richiede una comprensione dei contesti e delle situazioni che va molto oltre le capacità degli algoritmi. Ad esempio, caratterizzare un fatto o applicare una legge generale a un caso particolare richiede, da parte di un giudice, qualcosa di più della semplice applicazione di una logica consequenziale, è qualcosa che eccede la pura manipolazione di regole formali e codificate. A questo proposito, un sistema di armi autonomo potrebbe considerare normali in senso statistico – e quindi accettabili – comportamenti che il diritto internazionale proibisce, o che – sebbene non esplicitamente delineati – sono ancora proibiti dai dettami della moralità e della coscienza pubblica.
Un sistema di armi autonomo può deviare dalle aree di evoluzione [del conflitto] o dagli obiettivi prescritti dall’autorità politica o militare responsabile. È necessario invece avere sempre una corretta tracciabilità dell’uso della forza, con un’accurata identificazione dei responsabili. L’imprevedibilità in tale ambito sarebbe in contrasto con il principio dello jus in bello, potendo tradursi nella scelta di colpire i civili per massimizzare l’interesse militare, in diretta opposizione al principio di distinzione. Tale perdita o diminuzione della responsabilità induce inoltre una totale mancanza di accountability [«obbligo di rispondere»] in ordine alle violazioni sia del diritto umanitario internazionale sia delle leggi internazionali sui diritti umani e potrebbe rivelarsi un progressivo incentivo alla guerra.
L’idea di una guerra condotta da sistemi di armi autonome non coscienti e non responsabili pare nascondere un’attrazione per il predominio che cela disperazione e una pericolosa mancanza di fiducia nella persona umana. Tale logica ignora il fatto che per una macchina una persona umana – esattamente come tutto il resto – non è altro che un insieme sostituibile di dati tra gli altri. È proprio questa la contraddizione «inumana»: la delega di poteri a sistemi autonomi ci pone sulla via della negazione, dell’oblio e del disprezzo delle caratteristiche uniche essenziali delle persone umane e delle virtù dei soldati.
Signor presidente,
La sicurezza e la pace internazionali si costruiscono attraverso la promozione di una cultura del dialogo e della cooperazione, non attraverso una corsa agli armamenti. Il prologo della Convenzione sull’interdizione di alcune armi tradizionali (CCW) esprime chiaramente il desiderio di contribuire «alla fine della corsa agli armamenti e alla costruzione della fiducia tra gli stati, e quindi alla realizzazione delle aspirazioni di tutti gli uomini di vivere in pace». Delegare la gestione di questioni fondamentali relative alla vita degli esseri umani e delle nazioni a delle macchine autonome ci condurrebbe, in modo impercettibile, alla disumanizzazione e all’indebolimento dei presupposti per una vera e duratura fraternità della famiglia umana.
Per queste ragioni, fare affidamento sul principio di precauzione e adottare un atteggiamento di prevenzione responsabile è della massima importanza nei nostri attuali sforzi. La nostra delegazione desidera richiamare qui le parole di papa Francesco: «È possibile allargare nuovamente lo sguardo, e la libertà umana è capace di limitare la tecnica, di orientarla, e di metterla al servizio di un altro tipo di progresso, più sano, più umano, più sociale e più integrale»(Laudato si’, n. 112). Diamo a queste parole una solida e duratura traduzione all’interno della nostra Convenzione (CCW)!
Grazie, signor presidente.
Ginevra, 9 aprile 2018