Alla ricerca di regole condivise per governare l’IA

di 

Lo sviluppo dell’IA e la sua rapida diffusione in molti ambiti della nostra vita hanno imposto una riflessione profonda ai massimi decisori istituzionali. Appare essenziale pensare la governance di tali strumenti, in modo da garantire i diritti della persona, diminuendo o eliminando distorsioni, sbilanciamenti di poteri, scarsa equità.

Il governo delle intelligenze artificiali non rappresenta solo uno tra i nodi al centro del dibattito politico internazionale; si può affermare, infatti, che sia il tema cardine attorno al quale si giocheranno le principali sfide degli anni a venire. A sottolineare la straordinarietà della questione è anche la forza con la quale papa Francesco sta invitando a riflettere sul tema. Lo ha fatto in occasione della Giornata mondiale della pace dello scorso primo gennaio1 ; lo rifarà a maggio per la Giornata delle comunicazioni sociali2 .

IA e pace

Le ragioni di questa insistenza da parte del papa sono molteplici. Innanzi tutto, vi sono motivi di continuità con i temi sviluppati a partire dall’enciclica Laudato si’. Infatti, così come la sua riflessione “ecologica” intreccia crisi ambientale a crisi spirituale e sociale, così la rivoluzione digitale impatta, nel bene e nel male, sul modo con cui l’uomo guarda a se stesso, sul modo in cui costruisce o indebolisce legami sociali e sul modo in cui si rapporta alla natura di cui è parte. Importante, dunque, è capire se sapremo promuovere uno sviluppo responsabile dell’IA, facendone uno strumento di pace e crescita umana e civile, riducendo al minimo gli effetti indesiderati. Provo allora, per quanto rapidamente, a sottolineare alcuni aspetti che reputo particolarmente interessanti.

L’appello a coniugare pace e rivoluzione digitale può essere letto, innanzi tutto, come un invito ad accettare l’IA come nostra compagna di viaggio, evitando posizioni di rigetto. Si tratta, invece, di accogliere il nostro tempo per ciò che è, accettandone la sfida in modo responsabile.

L’invito a far pace con l’IA può essere letto anche in un senso ulteriore, ovvero come un impegno a utilizzare i nuovi strumenti digitali per promuovere la concordia tra gli uomini. Tuttavia, non è affatto scontato che quest’ultima sia la direzione di marcia del tumultuoso sviluppo dell’IA. Il treno della trasformazione digitale andrebbe quindi orientato con saggezza e prudenza. È possibile farlo davvero?

Sul ruolo dei governi

Stando al susseguirsi di summit internazionali e di azioni governative, sembrerebbe diffusa la consapevolezza, da parte del mondo politico, della necessità di stabilire con urgenza argini etico-sociali allo sviluppo dell’IA. Numerose, infatti, sono le iniziative che, dalla Cina agli Stati Uniti, dall’Unione europea al G7, si susseguono con l’obiettivo di promuovere uno sviluppo sicuro delle intelligenze artificiali.

In generale, pur riconoscendo i grandi benefici che lo sviluppo dell’IA sa promuovere, vi è un accordo di massima sui rischi dai quali è opportuno tutelarsi. Sono soprattutto i pericoli che accompagnano lo sviluppo sempre più rapido delle intelligenze artificiali a motivare l’intervento politico; il punto, però, è come limitarli senza che ciò ostacoli la crescita economica o implichi una perdita di competitività nei confronti di altri player mondiali. Non solo. Spesso i pericoli di cui la politica si dimostra avvertita sono quelli che provengono da altri, mentre per sé, chi governa, vorrebbe poter contare su spazi di manovra più ampi. Ne è un esempio l’ordine esecutivo del presidente Biden dello scorso 30 ottobre, il quale si propone di sostenere lo sviluppo e l’uso sicuro, protetto e affidabile dell’intelligenza artificiale3 .

Al fine di raggiungere l’obiettivo di una IA sicura e affidabile, in questo ordine esecutivo vengono previsti obblighi di rendicontazione per le aziende, chiamate a comunicare le modalità di addestramento dei nuovi modelli di IA e le strategie di controllo con le quali vengono indagati i possibili punti deboli o minacce. Va detto, però, che l’approccio dell’amministrazione americana è particolarmente orientato a favorire le imprese e lo sviluppo dell’IA, tant’è che viene evitato un corpus normativo organico e si preferisce sollecitare la collaborazione volontaria. Tale obiettivo va però contemperato con altri importanti fattori in gioco.

Gli USA, ad esempio, si dimostrano preoccupati di un possibile uso malefico dell’IA quale strumento per destabilizzare il sistema democratico (il grande tema delle fake news), oppure come vera e propria arma per colpire settori strategici chiave (dall’energia ai trasporti, dalla sanità alle comunicazioni). L’executive order cerca quindi di fronteggiare tali pericoli.

Inoltre, si riconosce la necessità di proteggere i cittadini americani dai rischi di possibili discriminazioni derivanti dall’utilizzo di programmi basati sull’IA. Senza contare l’opportunità di rendere trasparenti i contenuti creati dall’IA attraverso apposite “etichette digitali”.

Da queste brevi note emerge la ricerca di un bilanciamento – tra sicurezza, sviluppo e diritti – particolarmente attento alle ragioni della crescita economica del paese e della sua leadership globale4 .

La proposta europea

Un diverso bilanciamento è offerto dal recente Artificial Intelligent Act dell’Unione europea5 . Si tratta di un testo molto ambizioso, per certi versi storico, in quanto mira a offrire un quadro normativo organico entro il quale garantire uno sviluppo sicuro e responsabile dell’IA. Non solo. La strategia europea si caratterizza per un approccio marcatamente human centred, ovvero imperniato sulla difesa dei diritti umani fondamentali.

La strada percorsa a livello europeo, inoltre, si caratterizza per il cosiddetto risk-based approach, ovvero per un intervento normativo differenziato a seconda dei livelli di rischio6 . L’AI Act, dunque, stabilisce precisi obblighi di condotta soprattutto per sviluppatori e fornitori, prevedendo precise strategie di monitoraggio e, nel caso di inadempienze, pesanti sanzioni. Accanto a ciò, ovviamente, la strategia europea si preoccupa di sostenere e promuovere lo sviluppo dell’IA, sia a livello di impresa che di ricerca accademica, ma sempre contemperando tali esigenze con il rispetto dei principi fondanti del progetto europeo. Inoltre, sottolineatura significativa, l’AI Act impone un’accurata valutazione dell’impatto ambientale dei diversi servizi offerti7 .

Nonostante le buone intenzioni, va detto, la proposta europea non è esente da limiti, come sottolineato anche dall’associazione europea dei consumatori Beuc la quale, ad esempio, lamenta una protezione non ancora sufficiente rispetto a strumenti digitali che, benché non classificati come ad alto rischio, impattano in modo significativo sulla privacy dei cittadini (dall’intelligenza artificiale generativa ai cosiddetti giocattoli intelligenti).

Il gruppo di lavoro Onu

Da questa pur sommaria analisi dei modi attraverso i quali i vari governi stanno provando a fronteggiare i rischi connessi allo sviluppo dell’IA, emergono almeno due ordini di problemi. Per un verso, la difficoltà di tutelare efficacemente i diritti dei cittadini in un contesto generale di squilibrio di potere tra chi detiene il controllo dell’IA e chi ne subisce gli effetti. Dall’altro, la distanza tra la dimensione globale dei rischi e la frammentazione delle strategie adottate dai diversi governi.

Provare a dare risposta a questi elementi di criticità è uno dei compiti affidati al gruppo di esperti nominati dall’Onu con l’obiettivo di proporre una strategia di governo dell’IA capace di servire l’umanità nella sua interezza e non solo singole nazioni.

Il primo report prodotto dall’AI Advisory Body – di cui è membro anche l’italiano padre Paolo Benanti – è un testo di grande interesse8 . Non soltanto perché offre una fotografia precisa e aggiornata sulle promesse di bene e sui rischi connessi allo sviluppo dell’IA, ma perché sollecita ad una declinazione globale delle nozioni di responsabilità, sostenibilità e sicurezza. Pone inoltre particolare attenzione al tema delle disuguaglianze, che uno sviluppo non governato dell’IA potrebbe acuire. Parla con grande chiarezza del diritto di tutte le nazioni a godere dei vantaggi dell’IA, suggerendo forme di cooperazione e di sostegno a quanti sono esclusi dal club dei favoriti dalla trasformazione digitale. Il testo, infine, indica principi guida che parlano di inclusione, condivisione, collaborazione, corresponsabilità, equità, affinché l’interesse pubblico globale prevalga sui tornaconti di pochi privilegiati. Un primo passo a cui, nonostante le difficoltà, speriamo ne seguano molti altri nella stessa direzione.

Note

1 Francesco, Intelligenza artificiale e pace, messaggio per la LVII Giornata mondiale della pace, disponibile online all’indirizzo: https://bit.ly/42Rwsd7.

2 Francesco, Intelligenza artificiale e sapienza del cuore: per una comunicazione pienamente umana, messaggio per la LVIII Giornata mondiale delle comunicazioni sociali, disponibile online all’indirizzo: https://bit.ly/42XgWMK.

3 Cfr. https://bit.ly/3P1DHJM.

4 Per un primo veloce approfondimento si può vedere G. Amedeo, L’AI ACT e l’Executive Order a confronto, in «Altalex», 23/12/2023, disponibile online all’indirizzo: https://bit.ly/3uRgMtO.

5 Cfr. https://bit.ly/3Tg6FIq.

6 Cfr. L. Grion, Le sfide dell’Intelligenza Artificiale, in «Dialoghi», 23 (2023), 92.

7 A questo aspetto si tende a non dare il giusto peso, nell’illusione che il digitale sia solo dematerializzazione. In realtà i servizi digitali comportano una significativa “fisicità” (si pensi agli enormi server necessari alla fornitura dei servizi in cloud) e un imponente consumo energetico. Su questo si veda, ad esempio, F. Lucivero, Sostenibilità ambientale delle società dell’informazione, in F. Fossa, V. Schiaffonati, G. Tamburrini (a cura di), Automi e persone, Carocci, Roma 2021, pp. 153-171. 8 https://bit.ly/3IdTRM2.