Non è facile presentare una sintesi. Possiamo però presentare tre studi che cercano di compiere tale sintesi ottenendo così un duplice risultato. Da un lato offrire dei riferimenti sul tema e dall’altro mostrare le tendenze in atto nel parlare di etica ed AI. Vediamo quindi i tre principali studi sull’etica delle AI al momento disponibili.
Principi etici
Per sapere quali sono i ricorrenti principi etici citati dalle molte linee guida scritte da governi, organizzazioni multilaterali e aziende per sviluppare una intelligenza artificiale etica, bisogna rifarsi a un nuovo studio (Artificial Intelligence: the global landscape of ethics guidelines) che ha passato in rassegna 84 di queste linee guida (la maggior parte risultano pubblicate tra Stati Uniti ed Europa, tra queste c’è anche il libro bianco dall’Agenzia per l’Italia Digitale al quale ho contribuito personalmente), distillando i principi enunciati.
Quelli ricorrenti, su cui c’è più convergenza (sono presenti in più di metà dei documenti) sono 5, anche se restano differenze su come sono poi interpretati e su come dovrebbero essere implementati.
Ma quali sono i principi in questione? Eccoli in ordine di maggiore frequenza:
Trasparenza: intesa soprattutto come capacità di spiegare, interpretare e in generale rivelare processi e decisioni.
Giustizia ed equità: intese come prevenzione e mitigazione di discriminazioni, ma anche come possibilità di appellare decisioni.
Non maleficenza: intesa come l’evitare rischi o danni specifici, come abusi intenzionali della tecnologia, ad esempio nella cyberwarfare e nell’hacking, ma anche come discriminazioni e violazioni della privacy.
Responsabilità e accountability: intese nel senso di chiarire l’attribuzione delle responsabilità, anche legali, ma di nuovo anche chiarire processi che possono portare a eventuali danni.
Privacy: intesa in relazione alla protezione dei dati e alla loro sicurezza.
Lo studio di Harvard
C’è anche un altro recente studio di Harvard su questo stesso argomento. I ricercatori hanno estrapolato 8 temi chiave da 32 documenti:
- accountability
- equità e non discriminazione
- controllo umano della tecnologia
- privacy
- responsabilità professionale
- promozione di valori umani
- sicurezza
- trasparenza e capacità di essere spiegato
Solo la metà dei documenti analizzati da questo paper fanno riferimento ai diritti umani. Vi invito a prendere visione della loro visualizzazione qui sotto: un lavoro davvero impressionante.
Analisi del movimento per una AI etica
C’è infine uno studio notevole, di inizio anno, che analizza più in generale gli assunti del movimento per una AI etica. Forzando dal testo, in maniera brutale e forse un po’ radicale, una sintesi potremmo dire che la sua conclusione è la seguente: le conversazioni in atto sull’etica nell’AI sono poco radicali, e sono intrise di determinismo tecnologico (ovvero l’AI è una forza storica cui gli umani possono solo reagire in modo limitato, non è prevista la possibilità di dire no a certi sistemi o stabilire che certi dati non debbano essere raccolti).
Le soluzioni proposte sono sempre su un piano “migliorativo” dal punto di vista tecnico o dell’implementazione, non si discutono gli assunti etici o politici di base. Ovvero “i problemi restano, in questa visione, fondamentalmente tecnici, schermati dall’intervento democratico”. Trovo questo studio accademico molto illuminante.
Uno sguardo finale
Dobbiamo ricordare che per guidare l’innovazione verso un autentico sviluppo umano che non danneggi le persone e non crei forti disequilibri globali, è importante affiancare l’etica alla tecnologia.
Rendere questo valore morale qualcosa di comprensibile da una macchina, comporta la creazione di un linguaggio universale che ponga al centro l’uomo: un algor-etica che ricordi costantemente che la macchina è al servizio dell’uomo e non viceversa.
Intervento ripreso dal blog del prof. Paolo Benanti.