Le sfide etiche dell’Intelligenza Artificiale

di 

L’Intelligenza Artificiale ha enormi potenzialità, ma allo stesso tempo non possiamo nasconderci i rischi di una mancata regolamentazione delle tecnologie digitali: queste, infatti, non sono moralmente neutrali. Le sfide etiche e sociali che abbiamo dinanzi chiedono una profonda riflessione che interessa sia la politica sia i tecnici.

Viviamo un tempo di grandi e repentini cambiamenti; un’epoca nella quale gli sviluppi dell’Intelligenza Artificiale (IA) stanno letteralmente rivoluzionando la nostra quotidianità in modi che un tempo sembravano appartenere solo all’immaginazione1 . Le potenzialità dell’IA sono immense: dai veicoli autonomi che migliorano la sicurezza stradale alla medicina personalizzata che salva vite; dall’automazione industriale che aumenta l’efficienza e la sostenibilità di processi produttivi alla traduzione automatica in grado di abbattere ogni barriera linguistica; dalle tecnologie capaci di ridurre il consumo energetico all’agricoltura di precisione. L’elenco potrebbe continuare, poiché le applicazioni dell’IA spaziano su tantissimi ambiti di vita e promettono di risolvere le grandi sfide globali del nostro tempo2 . Comprensibile, quindi, l’entusiasmo che accompagna la trasformazione digitale e il fascino esercitato dall’IA, soprattutto quando sembra superare le capacità umane3 . L’IA, infatti, è in grado di analizzare enormi quantità di dati in pochi istanti, di apprendere da esperienze passate e di compiere azioni con precisione millimetrica; appare quindi ragionevole lasciarle l’onere di decidere in situazioni di particolare complessità, quando i dati da considerare paiono eccedere le capacità umane. Tuttavia, mentre celebriamo queste potenzialità, non possiamo nasconderci i rischi connessi a una mancata regolamentazione di tali tecnologie. La corsa verso l’IA, infatti, comporta una serie di sfide etiche e sociali che richiedono una seria riflessione pubblica e una guida intelligente da parte della politica. Basti pensare al rischio che tali tecnologie possano incorporare e amplificare pregiudizi (la cosiddetta discriminazione algoritmica), dando luogo a decisioni ingiuste o inique. C’è poi il rischio che, sull’altare dell’efficienza e dell’efficacia, si sacrifichino valori importanti quali la trasparenza e la comprensibilità delle decisioni prese da un’IA o, ancora, i rischi di veder violata la privacy personale o di essere fatti oggetto di manipolazione occulta. Per tutte queste ragioni, da più parti si chiede una regolamentazione etica (prima che giuridica) dell’IA. Ma se la richiesta appare legittima, fornire una risposta efficace risulta tutt’altro che agevole.

Alla ricerca di un’etica condivisa

Parlare di regolamentazione etica – non solo in riferimento alla trasformazione digitale, ma in generale – è una questione spinosa. Non esiste, infatti, un’unica etica condivisa alla quale fare riferimento. Esistono, piuttosto, una pluralità di sensibilità, di paradigmi e di tradizioni morali, spesso in conflitto tra loro. La questione cruciale, quindi, è capire quale etica dovrebbe guidare il nostro rapporto con la tecnologia, soprattutto quando si tratta di incorporarla nei sistemi automatici a cui affidiamo compiti decisionali. In estrema sintesi, potremmo chiederci: come decidere quale etica debba regolare l’azione delle macchine intelligenti? Per provare a rispondere a tale questione, tra il 2016 e il 2020 un gruppo di ricercatori del Massachusetts Institute of Technology (MIT) ha sviluppato un programma di ricerca divenuto celebre: il Moral Machine Project4 . Sfruttando le risorse della rete, tali ricercatori hanno sottoposto a partecipanti di tutto il mondo una serie di dilemmi etici, chiedendo loro di fare scelte difficili in situazioni in cui i veicoli autonomi erano coinvolti. Un esempio classico era se un veicolo dovesse scegliere di salvare la vita di un pedone a scapito di un conducente o viceversa. Il risultato più interessante del Moral Machine Project è legato alla determinazione di differenti cluster culturali. Influenzate da fattori come l’età, la cultura e le convinzioni personali, le decisioni etiche delle persone variavano notevolmente. Ad esempio, alcune culture davano priorità alla salvaguardia dei giovani, mentre altre attribuivano un valore superiore alla protezione degli anziani. Questo esperimento, quindi, ha reso evidente quanto sia complicato convenire su regole etiche condivise. Non esiste, infatti, una risposta univoca a dilemmi etici come quelli proposti dal Moral Machine Project. Tali decisioni dipendono da una varietà di fattori culturali, individuali e situazionali. Che fare, allora? È ragionevole pensare che le regole etiche possano semplicemente conformarsi alla media delle sensibilità etica dei suoi utilizzatori? Altri ricercatori hanno provato a seguire una pista diversa: in omaggio al valore dell’autonomia individuale, essi hanno immaginato di poter individualizzare i criteri decisionali, inserendo sui veicoli a guida automatica una “leva etica” che consenta al proprietario di scegliere tra un approccio utilitaristico, uno deontologista o, perché no, uno vocato al sacrificio personale pur di non nuocere ad altri. Anche in questo caso, però, i problemi non sono certo risolti. L’etica, per sua natura, aspira all’universalità; difficile accettare che una comunità possa reggere al dilagare di un “anarchismo morale”, senza valori e regole condivise5 .

UE Artificial intelligence act: il ruolo della politica per un’IA dal volto umano

Per affrontare le sfide etiche poste dall’IA, l’Unione Europea ha adottato un approccio alternativo e ambizioso: affidare alla politica il compito di individuare valori e regole condivise che possano garantire uno sviluppo dell’IA sicura, affidabile e capace di promuovere l’umano6 . È interessante analizzare la logica di tale proposta. Essa muove dal riconoscimento di alcuni valori guida, condivisibili con facilità da tutti i cittadini dell’Unione: privacy, dignità umana, responsabilità, trasparenza, assenza di discriminazione, controllo umano significativo. Ma come tradurli in regole condivise? Il problema dell’etica, infatti, non è tanto quello di riconoscersi in principi etici generali, quanto quello di trovare un accordo su quale debba essere, nel contesto di specifiche situazioni, l’ordine di priorità da attribuire a quei valori quando non possono essere perseguiti allo stesso modo e allo stesso tempo. Cosa fare, ad esempio, quando la sicurezza pubblica confligge con la privacy personale? Cosa quando l’efficacia di un sistema decisionale comporta l’opacità dei suoi criteri di scelta? La soluzione prospettata dall’Artificial intelligence act sembra suggerire una soluzione persuasiva: non preoccupiamoci di definire, con precisione, un’idea di bene comune dalla quale far discendere regole capaci di difenderlo e promuoverlo, ma partiamo dal male da cui tutti vogliamo tenerci alla larga. L’umano, infatti, riconosce con più facilità ciò che lo ferisce e lo umilia, mentre sembra in maggiore difficoltà quando deve mettere a fuoco ciò che lo realizza7 . Questa intuizione si traduce in un approccio basato sulla gestione del rischio, ovvero dei mali dai quali tenersi alla larga. L’IA Act definisce pertanto quattro livelli di rischio associati all’IA. Questi livelli determinano le regole e gli obblighi differenziati che le aziende devono rispettare. Ad esempio, i sistemi di IA ad alto rischio, come quelli utilizzati nella salute o nei trasporti, sono soggetti a normative e controlli più rigorosi. Progressivamente meno soggetti a restrizioni e regole sono, invece, i sistemi a limitato o minimo livello di rischio. Quelli, poi, che presentano un rischio inaccettabile (riconoscimento biometrico in tempo reale, sistemi di social score, tecniche subliminali) sono semplicemente vietati. Mettendo al centro la protezione dal male – ovvero ciò che confligge con i bisogni essenziali – l’Artificial intelligence act riesce a suggerire la possibilità di trovare un punto di equilibrio condiviso tra la promozione dell’innovazione e la protezione dei cittadini e dei loro diritti. Chiaramente questo è solo l’inizio di un dibattito che non potrà limitarsi all’aula del Parlamento europeo, ma dovrà attraversare le nostre comunità, animando un dibattito pubblico informato e responsabile.

Ethics by Design e un nuovo umanesimo digitale

La risposta politica, per quanto importante, non potrà essere sufficiente. Essa potrà indicare la strada, ma il cammino passerà in buona parte dalle stanze nelle quali l’IA viene pensata e progettata. La tecnica, infatti, non è moralmente neutra, ma è il terreno sul quale quel bilanciamento di valori di cui facevo cenno trova concretamente realizzazione. Pensiamo a cosa ha comportato, ad esempio, la realizzazione di un’app come Immuni: ha richiesto di soppesare integrità e completezza dei dati con la privacy dei cittadini, la facilità d’uso con la sicurezza, la tutela della salute pubblica con la libertà personale. Ciò su cui dobbiamo investire, da un punto di vista culturale e formativo è, dunque, la competenza etica dei tecnici, poiché le tecnologie di cui abbiamo bisogno devono essere Ethics by Design, cioè disegnate sulla base di una precisa intenzionalità etica. Se le preoccupazioni morali arrivano dopo, quando le tecnologie sono già disponibili, è troppo tardi. Questo approccio implica che le aziende e gli sviluppatori considerino l’etica come un’aggiunta tardiva o come un semplice strumento di pubbliche relazioni. Al contrario, l’etica dovrebbe essere parte integrante del processo di sviluppo, dall’ideazione alla realizzazione, in modo che i principi etici siano incorporati nel codice stesso dell’IA. L’approccio multidisciplinare, quindi, più che una teoria della conoscenza, dovrebbe diventare una prassi consolidata all’interno dei processi ideativi e produttivi. Un aspetto chiave di questa Ethics by Design è l’adozione di un nuovo umanesimo digitale. Ce lo ricorda anche La strategia italiana per l’intelligenza artificiale promossa dal Ministero dello sviluppo economico8 . L’umano – il suo valore, la sua dignità – deve infatti essere posto al centro di questa rivoluzione tecnologica, e non solo come utente finale, ma come beneficiario primario. Questo significa che l’IA dovrebbe essere sviluppata non solo con l’obiettivo di massimizzare l’efficienza o il profitto, ma anche (e soprattutto) di promuovere la crescita umana. In breve: è la tecnologia che deve adeguarsi all’umano, aiutandolo a fiorire, non è l’uomo che deve adeguarsi alle macchine, per inseguire il mito della massima efficienza e della massima produttività. Le sfide sul terreno sono enormi, rischi e opportunità altrettanto. Per questo è importante affrontarle con tempismo, coraggio e responsabilità.

Note

1 Cfr. P. Benanti, Digital Age. Teoria del cambio d’epoca. Persona, famiglia e società, Edizioni San Paolo, Cinisello Balsamo (Mi) 2020. 2 Per capire cosa sia l’IA consiglio: M. Mitchell, L’intelligenza artificiale. Una guida per esseri umani pensanti, Einaudi, Torino 2022; S. Quintarelli (a cura di), Intelligenza artifciale. Cos’è davvero, come funziona, che effetti avrà, Bollati Boringhieri, Milano 2020; N. Costantini. La scorciatoia. Come le macchine sono diventate intelligenti senza pensare in modo umano, il Mulino, Bologna 2023. Per una lettura critica – a mio avviso un po’ eccessiva ma utile – si veda anche: E. Sadin, Critica della ragione artificiale. Una difesa dell’umanità, Luiss University Press, Roma 2019. 3 Una interessante introduzione a questo cambio d’epoca è offerta dal volume curato da L. Taddio, G. Giacomini, Filosofia del digitale, Mimesis, Milano-Udine, 2020. 4 Cfr. www.moralmachine.net. 5 Per approfondire questi temi si può vedere utilmente: G. Tamburrini, Etica delle macchine. Dilemmi morali per roboetica e intelligenza, Carocci Editore, Roma 2020 e F. Fossa, V. Schiaffonati, G. Tamburrini (a cura di), Automi e persone. Introduzione all’etica dell’intelligenza artificiale e della robotica, Carocci, Milano 2021. Su questi temi segnalo anche: A. Jori, Principi di roboetica. Filosofia pratica e intelligenza artificiale, Nuova Ipsa Editore, Palermo 2019; P. Benanti, Human in the loop. Decisioni umane e intelligenze artificiali, Mondadori Università, Milano 2022; J. Nida-Rümelin, N. Weidenfeld, Umanesimo digitale. Un’etica per l’etica dell’Intelligenza Artificiale, FrancoAngeli, Milano 2018. 6 Cfr. bit.ly/3ue6gMs (ultima consultazione 6/12/2023). 7 Cfr. L. Grion, Divisi dal bene comune in F. Pizzolato, P. Costa (a cura di), Il lato oscuro della sussidiarietà, Giuffrè Editore, Milano 2013, pp. 1-28. 8 Cfr. bit.ly/3SEqDwC (ultima consultazione 6/12/2023).