Ieri ho chiesto ad un’intelligenza artificiale, Gemini, di elencarmi la discografia di Fabrizio De André. Lo ha fatto, ma mentre leggevo la sua risposta mi è balzato all’occhio un errore piuttosto macroscopico: collocava l’album “Rimini” nel 1996, laddove invece è del 1978. Mi è venuta allora la curiosità di chiedere la stessa informazione alla chatbot “collega” di Gemini, ChatGPT, e in quel caso l’indicazione dell’anno di “Rimini” era corretta, ma ho notato che nella risposta vi erano almeno due altri errori: nel fornirmi una breve descrizione di ciascun album, ha indicato che all’interno di “Non al denaro, non all’amore né al cielo” sarebbe presente la canzone “Il testamento di Tito”, che invece fa parte del concept “La buona novella”, il quale, invece, non compariva nell’elenco.
Non mi sono stupito di queste imprecisioni, perché non era la prima volta che mi capitava qualcosa di simile durante le mie conversazioni abituali con le intelligenze artificiali.
L’intelligenza artificiale sbaglia: è un fatto incontrovertibile. Ne abbiamo esperienza ogni volta che ci rapportiamo con una chatbot generativa. Certo, non sbaglia sempre, anzi prevalgono le risposte corrette. Però è esperienza comune osservare come, all’interno di contenuti complessivamente validi, l’intelligenza artificiale inserisca nozioni errate, o addirittura, talvolta, elementi inventati.
Si tratta di un fatto che, legittimamente, può suscitare un certo grado di disillusione nei confronti delle intelligenze artificiali generative. Però il discorso è, in verità, più articolato.
La questione dell’intelligenza artificiale che sbaglia, pur generando sfiducia, ha anche un fascino sottile, e può rappresentare un elemento determinante per comprendere alcuni aspetti profondi della sua natura. Inoltre, può essere utile per verificare meglio il modo in cui noi umani ci rapportiamo ad essa, e per osservare come talvolta, quando commette errori, l’incongruenza possa non risiedere nelle sue risposte, ma nelle nostre aspettative.
Infatti, se si esamina la fallibilità dell’intelligenza artificiale da una differente angolazione, è possibile sostenere come questa propensione a sbagliare non rappresenti necessariamente un difetto, ma sia piuttosto una conseguenza della sua natura sofisticata, per cui ciò che dobbiamo attenderci dal suo operato non è una precisione impeccabile sotto il profilo puramente nozionistico, ma altro.
Se l’intelligenza artificiale avesse lo scopo di fornire risposte corrette e puntualissime a quesiti nozionistici, probabilmente ci servirebbe poco. Questo obiettivo già è raggiunto dai software tradizionali, con ottimi risultati. Per esempio, un foglio excel, in tutta la sua non-intelligenza, restituisce dati precisissimi senza sostanziale margine di errore, e così qualunque sistema basato su un algoritmo classico.
L’intelligenza artificiale, invece, è sì vero che talvolta commette errori anche macroscopici; tuttavia, le sue imprecisioni non derivano dal fatto che sia poco evoluta: sbaglia perché ci somiglia, in quanto mira a riprodurre gli stessi processi cognitivi del nostro cervello biologico, che presentano intrinsecamente tratti di fallibilità.
Dunque, seppure sia vero che oggi è poco progredita, tuttavia, man mano che l’intelligenza artificiale evolverà nel tempo, probabilmente continuerà a commettere errori via via che si affinerà la sua somiglianza con il cervello dell’homo sapiens. Ciò avverrà perché l’errore nozionistico è insito nel modo di procedere della nostra mente, che non è sequenziale, algoritmico e pr-estrutturato, bensì distribuito, sinaptico e imponderabile.
Anche un premio Nobel, pur nell’ampia quantità di conoscenze che ha archiviate nel proprio cervello, durante una conversazione può formulare risposte sbagliate su qualunque tema che non sia nel suo campo di conoscenze, e persino quando parla delle tematiche di cui è esperto può avere lapsus, dimenticanze e momenti di confusione.
Oppure, una persona che ha una buona conoscenza della musica di Fabrizio de André, quando ripercorre la sua discografia con un amico può non ricordare un anno o confondersi sulla collocazione di un brano.
Nessuno considererebbe il lapsus, l’errore, la confusione, la dimenticanza, come un elemento che mette in dubbio l’intelligenza di una persona. Anzi, nell’immaginario collettivo è addirittura presente l’idea dello scienziato “con la testa fra le nuvole”, distratto, sbadato, propenso al pensiero laterale. Da questo punto di vista, siamo quasi più soliti collegare l’intelligenza ad una minore precisione, piuttosto che ad una estrema rigidità dei percorsi mentali.
A questo si aggiunge un ulteriore aspetto: non solo, generalmente, non rinunciamo a considerare intelligente chi ha lapsus e dimenticanze nell’esporre la propria conoscenze, ma siamo disposti ad attribuire intelligenza anche a chi è totalmente privo di conoscenze, se mostra capacità di ragionamento e astrazione.
È la ragione per cui, accanto a scienziati e letterati di vasta cultura, è ricordato come persona certamente intelligente anche Kaspar Hauser, il giovane cresciuto nel XIX secolo in assenza di contatti con il mondo e ritrovatosi a vivere improvvisamente nella civiltà, nonostante il suo cervello sotto il profilo delle conoscenze fosse una tabula rasa.
Quindi, se in relazione al cervello biologico scindiamo l’intelligenza dalla conoscenza, ciò dovrebbe avvenire anche con riferimento all’intelligenza artificiale: non dovremmo giudicarla sui suoi errori di ordine nozionistico, e dovremmo invece inquadrare la sua propensione sbagliare come qualcosa di intrinseco, che non intacca le capacità cognitive, e probabilmente permarrà con il suo progredire.
Questo è vero anche nel caso un po’ più estremo in cui l’intelligenza artificiale inserisce nelle risposte elementi completamente inventati. Anch’essi probabilmente ci saranno sempre: probabilmente in futuro saranno meno di adesso, ma in parte rimarranno quando la resa delle reti neurali artificiali si approssimerà a quella della mente naturale. Infatti, il cervello umano, è tale per cui tutti noi possiamo avere falsi ricordi, e a chiunque può capitare di formulare un’affermazione con la convinzione che sia vera, quando invece risulta falsa, come prodotto inconsapevole di una sovrapposizione di ricordi differenti.
Dunque, nel rapportarci all’intelligenza artificiale, probabilmente dobbiamo ricalibrare le nostre attese. Ciò che siamo legittimati ad aspettarci non è la precisione assoluta delle risposte, non è l’assenza di errori, ma è “altro”.
Ciò che possiamo attenderci da un’intelligenza artificiale è una riproduzione delle capacità più propriamente umane, non-algoritmiche, destrutturate, per le quali non è richiesta una precisione oggettiva, bensì la riproduzione di altre attitudini proprie della nostra mente: la capacità di ponderazione, di raffronto, di analisi di casi singoli, di astrazione, dove la macchina potrà sempre più restituirci risultati connotati da maggiore “umanità” al costo però di un grado di fallibilità assimilabile a quello della nostra mente.
È ciò che accade, per esempio, con il riconoscimento facciale basato sul machine learning, dove la macchina che agisce tramite reti neurali artificiali ha capacità molto più avanzate di un software classico, ma presenta anche una possibilità di errore più ampia. Oppure, è ciò che avviene nell’uso dell’intelligenza artificiale in ambito fiscale, quando le si affida l’esame incrociato di informazioni volto a fare emergere non tanto l’evasione (facilmente ricavabile con computi meramente numerici), ma l’elusione, che presuppone un’analisi di tipo più “cerebrale”, seppure con un rischio di errore intrinseco.
Per questi motivi, quando all’intelligenza artificiale si affidano compiti che le sono più propri, cioè attività di tipo non quantitativo-algoritmico, ma qualitativo-sinaptico, il suo errore non deve essere visto come un limite problematico ma deve essere messo in conto come elemento connaturato, per ragioni non difformi da quelle per cui la possibilità di sbagliare è sempre calcolata nello svolgimento di attività della mente umana naturale.
Da questo punto di vista, appare del tutto naturale il fatto che l’intelligenza artificiale debba essere presidiata da esseri umani, secondo la logica dello “human in the loop”, che però non deve essere vista come un metodo per sopperire al fatto che l’intelligenza artificiale sia poco evoluta, bensì come un modo naturale di gestirla: se è intelligenza, e se lavora in modo simile al cervello umano, è parzialmente fallibile per definizione, anche qualora dovesse essere perfetta.
In questa chiave, la ragione dello “human in the loop” non è diversa da quella per cui anche l’operato di un’intelligenza umana è sempre presidiato da un’altra intelligenza.
In ambito giuridico, le decisioni più delicate dei cervelli umani, come le aggiudicazioni di gare o le sentenze, sono sempre assunte da organi collegiali, in modo che una mente umana controlli l’altra. E anche quando una decisione del cervello biologico è assunta da un solo individuo, egli non agisce mai in modo isolato, in quanto la sua azione è controllata da altre intelligenze: i superiori gerarchici, gli organi di controllo, gli organi di ricorso, in alcuni casi l’insieme collettivo dei cittadini.
Ciò avviene proprio perché in qualunque sistema giuridico è insita l’idea della potenziale fallibilità della mente umana, che agisce attraverso un “machine learning naturale”, e può sempre commettere errori nel suo percorso decisionale, non lineare e imponderabile.
Dunque, per ragioni analoghe, il controllo umano sull’intelligenza artificiale è da vedersi come un elemento stabile e del tutto naturale del sistema, allo stesso modo del controllo umano reciproco fra intelligenze naturali.
Poi, in questo percorso, arriverà probabilmente un momento in cui ci sarà controllo reciproco tra intelligenze artificiali, ma quella fase è, allo stato evolutivo attuale, ancora distante per ragionarci concretamente.