L’intelligenza artificiale divide in due l’umanità, portando alla massima potenza la ripartizione fra apocalittici e integrati che Umberto Eco già descriveva nel 1964. In questo caso gli integrati rischiano però, se esagerano, quasi di averne un’idea salvifica, e gli apocalittici rischiano di essere tali nel senso letterale del termine. Insomma, l’intelligenza artificiale è diventata una questione quasi più teologica che tecnologica.
Chi ha ragione? Verosimilmente, nessuno dei due gruppi, almeno se si considerano le posizioni più estreme e polarizzate. Va da sé che qualunque acutizzazione conduce distanti dalla ragione.
Qual è allora il giusto atteggiamento da assumere? Senza la presunzione di possedere una risposta, la si può cercare. E la si trova forse in un documento normativo che conosciamo bene, il “solito” Artificial Intelligence Act del 2024, in cui il legislatore europeo si è fatto anche un po’ teologo e ci fornisce forse una chiave di lettura utile per capire quale sia il giusto rapporto uomo-macchina in quest’epoca in cui la macchina diventa (a suo modo) un po’ umana.
L’Artificial Intelligence Act (il regolamento n. 1689 del 2024) ci propone un approccio che non è di polarizzazione, una visione in cui l’intelligenza artificiale non costituisce il bene supremo o il male assoluto. Esso segue un altro paradigma, un’altra geometria, che è quella dei cerchi concentrici.
Se ci pensiamo, il modo migliore per leggere l’Artificial Intelligence Act non è vederlo come una successione di regole in sequenza, ma come un allargarsi di cerchi da uno più stretto ad uno più largo, ad un altro più ampio ancora, i quali rappresentano i gradi di “severità” che l’uomo deve assumere nei confronti della macchina-pensante, dal più intenso e intransigente al più leggero e “rilassato”.
Il cerchio più interno è quello del divieto assoluto, la no-fly zone dell’intelligenza artificiale, sostanzialmente contenuta nell’articolo 5, in cui si individuano i casi in cui non ne sono consentiti “l’immissione sul mercato, la messa in servizio o l’uso”. Si tratta, come sappiamo, dell’elenco di quelle ipotesi in cui l’intelligenza artificiale è destinata a scopi volutamente non benefici, soprattutto nei confronti delle persone più deboli e vulnerabili.
Il cerchio intermedio è quello dell’intelligenza artificiale ad alto rischio, dove l’uso può essere in sé benefico, ma l’ambito di applicazione è sensibilissimo (per esempio l’identificazione biometrica, la gestione delle infrastrutture critiche, l’istruzione, l’amministrazione della giustizia e dei processi democratici) e ci si trova quindi in aree in cui la si può sì adoperare, ma con una griglia di norme rafforzate, contenute soprattutto nella sezione 3 del regolamento, in cui tutte le garanzie sono ispessite.
Il cerchio più esterno è quello dell’intelligenza artificiale “non ad alto rischio”, quella più legata alla quotidianità che non tocca nervi sensibili del tessuto sociale, in cui le regole esistono, ma con un minore grado di rigidità. Si pensi per esempio all’ottimo articolo 50 sulla trasparenza, che regola la diffusione dei deep fake ma non esclude che possano avere una funzione artistica, che rimane consentita, per esempio, nell’ambito della satira.
questi tre cerchi concentrici – del divieto, della massima attenzione e dell’uso libero ma regolamentato – rappresentano davvero la geometria giuridica probabilmente più corretta, che trascende la visione manichea del “bene-male”, e vede l’intelligenza artificiale nella sua complessità, producendo regole differenti a seconda che la si usi per plagiare una persona fragile, per identificare chi passa in un aeroporto, o per creare meme divertenti e magari utili a stimolare il senso critico.
È interessante poi osservare che, per far fronte alla modalità “religiosa” di vivere l’intelligenza artificiale, non solo il legislatore “si fa teologo” aiutandoci a non polarizzare il nostro punto di vista in un senso o nell’altro, ma anche la teologia vera e propria se ne occupa.
Il 10 maggio 2024, in un suo discorso, Leone XIV, rivolto ai cardinali, ha osservato che occorre “rispondere a un’altra rivoluzione industriale e agli sviluppi dell’intelligenza artificiale, che comportano nuove sfide per la difesa della dignità umana, della giustizia e del lavoro”. Anche in questo caso si va oltre le polarizzazioni, e l’intelligenza artificiale non è vista né come qualcosa di salvifico, né come intrinsecamente preoccupante, ma è osservata come una realtà i cui sviluppi “comportano sfide”, cioè il cui ingresso nella società deve essere accompagnato da consapevolezze.
Ed è interessante che gli elementi a cui prestare attenzione secondo Leone XIV siano gli stessi dell’Artificial Intelligence Act: la dignità umana (nel “primo cerchio” del divieto) nonché la giustizia e il lavoro (nel “secondo cerchio” dell’alto rischio).
Si tratta di una convergenza di vedute piuttosto interessante da osservare e da seguire.