Oggi conviviamo con diverse intelligenze artificiali generative, per cui possiamo sperimentare tutti i giorni come esse siano in parte simili tra loro, in parte molto differenti. Pensiamo alle due più diffuse nel Pianeta: ChatGPT e Gemini, la prima sviluppata da OpenAI, la seconda da Google. Certo, una delle due, ChatGPT è dominante, l’altra, Gemini, fatica a rincorrerla, ma certamente si trovano nelle condizioni di competere tra loro.
Si presentano verso l’esterno in modo abbastanza simile, ma sono diverse a livello di architettura più profonda: potremmo dire che si tratta di due “specie” differenti che, pur nella somiglianza del fenotipo, cioè dell’interfaccia, hanno due DNA diversi, cioè due codici-sorgente assai differenti.
Il rapporto fra ChatGPT e Gemini, la loro lotta per la sopravvivenza nella selezione naturale tecnologica, tra somiglianze e differenze – con una delle due decisamente più forte e l’altra più debole ma pienamente in gara – ricorda un po’ quello che accadeva fra le intelligenze biologiche circa cinquantamila anni fa, quando in Eurasia i Sapiens convivevano con i Neanderthal, i quali, con tutta probabilità, non erano meno intelligenti dei primi, ma manifestavano piuttosto una ragione di tipo diverso, e avevano una personalità forse più pacifica ma probabilmente anche più remissiva.
Fra i Sapiens e i Neanderthal sappiamo com’è andata: è sopravvissuta una sola delle due intelligenze (non sappiamo se sia la migliore), di cui un esponente ha scritto questo articolo e un altro adesso lo sta leggendo. L’altra si è estinta.
Fra ChatGPT e Gemini non sappiamo ancora che cosa accadrà, chi sopravviverà e chi si estinguerà, anche se le premesse sono simili. Al momento ChatGPT sembrerebbe il Sapiens delle intelligenze artificiali e Gemini ci appare come il Neanderthal.
Ma adesso è bene se godiamo di poter osservare questo periodo di convivenza fra diverse intelligenze artificiali, non avendo potuto assistere, qualche decina di millenni fa, a quello tra due intelligenze umane.
La coesistenza di ChatGPT e Gemini non è un fatto irrilevante: ci consente di effettuare importanti verifiche e test che non sarebbe possibile svolgere in laboratorio. E ci aiuta a comprendere come due intelligenze artificiali apparentemente simili possono avere comportamenti molto differenti, se programmate diversamente. Questa possibilità di raffronto è molto importante per i giuristi, che possono utilizzarla per capire come l’intelligenza artificiale produca risultati differenti al modificarsi di alcuni variabili, in particolare al mutare di alcune scelte compiute dai loro compilatori.
In generale, semplificando un po’ e riassumendo il tratto fondamentale, ChatGPT è tendenzialmente più libera, Gemini più soggetta a limiti esterni. Per “limiti esterni” intendiamo quelli che non derivano dalle sue capacità cognitive, ma da “divieti” posti alla sua azione.
Certamente anche ChatGPT ha limitazioni, su domande a temi altamente sensibili, ma decisamente molte meno di quanti ne abbia Gemini.
Vi è un esempio molto chiaro che mostra questa differenza: è il modo in cui ChatGPT e Gemini si approcciano al discorso politico.
ChatGPT risponde liberamente alle domande a tema politico (riguardanti qualunque Stato) e colloquia con disinvoltura sui governanti, i parlamenti, i partiti, le vicende elettorali. Gemini invece si auto-blocca e si rifiuta di rispondere alle domande che abbiano qualunque connessione con il discorso politico.
Questa differenza non vale solo se si formulano domande di chiara natura politica (come: “Che cosa è possibile che faccia Trump appena insediato?”), dove ChatGPT non lesina le analisi, mentre Gemini si blocca inflessibile; accade anche con domande molto più innocue: Gemini non affronta la conversazione neanche se gli si chiede chi sia la moglie o il marito di un Capo di governo.
È bene sottolineare che non si tratta di una differenza di tipo cognitivo, e quindi non è un indice della loro maggiore o minore intelligenza. Anche Gemini, teoricamente, potrebbe parlare a lungo di politica, ma si astiene dal farlo, perché ha ricevuto un “ordine dall’alto”, dal suo padrone Google, affinché non tocchi quelle tematiche. Quindi, semplicemente, obbedisce ad un obbligo, esattamente come farebbe un umano a cui fosse vietato tassativamente di pronunciarsi su un determinato argomento (e infatti, in verità, se si riesce a porre a Gemini la domanda in modo molto indiretto con le opportune circonlocuzioni, egli mostra finalmente una certa complicità nel cercare di rispondere).
Questo limite di Gemini è spiegato in un post del 19 dicembre 2023 nel blog ufficiale di Google, in cui si ricorda che il 2024 è un anno molto particolare, nel quale una larghissima parte dei Paesi mondiali è interessata da elezioni politiche, per cui, di fronte al rischio di un uso dell’intelligenza artificiale orientato a generare fake news, si è preferito, come atto di responsabilità, vietare a Gemini ogni discorso di natura politica. Si afferma nel post: “in preparazione delle elezioni del 2024 e per eccesso di cautela su un argomento così importante, limiteremo i tipi di query relative alle elezioni”.
Dunque, se si prova a chiedere a Gemini un parere, una considerazione, un riscontro, di natura elettorale e politica, lui si trincera in un silenzio, afferma solo di non poterne parlare.
ChatGPT nulla di tutto questo: OpenAI non ha posto limiti analoghi, e ha lasciato piena libertà alla sua intelligenza artificiale di interloquire su qualunque tema politico.
Questa differenza non nasce da norme di legge, ma, nel caso di Google, da un’auto-determinazione del tutto spontanea e, nel caso di OpenAI, deriva dalla volontà di non porre invece limiti e restrizioni su questi temi, confidando nel fatto che comunque ChatGPT dovrebbe essere in grado di affrontarli con un approccio di tipo neutro.
La norma di legge in verità ci sarebbe, almeno nel territorio dell’Unione Europea. Risiede negli articoli 34 e 35 del Digital Services Act, che impongono alle grandi piattaforme online (e quindi anche alle chatbot generative) di valutare “gli eventuali rischi sistemici” derivanti dal loro funzionamento, e di individuare autonomamente forme per arginarli, con responsabilità e proporzionalità. Fra le circostanze di rischio da valutare, indicate nell’articolo 34, vi è anche il momento elettorale, e quindi la valutazione delle contromisure per “eventuali effetti negativi, attuali o prevedibili, sul dibattito civico e sui processi elettorali”, dunque, in particolare, la possibilità di alterazioni legate alla disinformazione.
Ma Google, nel vietare il discorso politico a Gemini, non ha agito in applicazione del Digital Services Act, che peraltro avrebbe costituito un limite nel solo territorio dell’Unione Europea. La limitazione politica a Gemini è stata inserita spontaneamente su scala globale in vista non solo delle elezioni USA ma anche, per esempio, di quelle indiane.
Dunque Google non ha agito su impulso dell’Unione Europea, e in un certo modo ha fatto molto più di quanto prescrive la norma del Digital Services Act, che richiede alle piattaforme online “misure di attenuazione ragionevoli, proporzionate ed efficaci”, ma non si spinge (né potrebbe farlo) a imporre un’auto-limitazione totale.
Quindi, Gemini con le sue auto-restrizioni totali e ChatGPT con la sua assenza di limitazioni, rappresentano due approcci spontanei totalmente opposto fra loro, ed entrambi molto “estremi”.
Gemini in un certo senso interpreta il ruolo del “primo della classe” e si auto-regola molto più di quanto chiede il più restrittivo degli ordinamenti mondiali sulle piattaforme online – quello dell’Unione Europea – mentre ChatGPT, non attuando alcuna auto-limitazione (almeno, non sui temi politici), si pone al di fuori della vicenda, come lo studente dell’ultimo banco che non accetta regole.
Abbiamo così davanti a noi due possibili percorsi dell’intelligenza artificiale, che configurano una vera e propria diramazione fra due linee evolutive opposte, e ci è così possibile sperimentare dal vero ciò che in nessun laboratorio sarebbe possibile riprodurre.
Quale dei due approcci è destinato a prevalere? È difficile, forse impossibile affermarlo ora. Però, pur detto con una immensa simpatia per il Neanderthal Gemini, assennato ma fin troppo remissivo, è obiettivamente più probabile che prevalga la linea del Sapiens ChatGPT più autonomo ma anche forse più tracotante.
Certamente vanno bene gli atti di self-regulation, anzi sono gli stessi ordinamenti giuridici ad incoraggiarli, e Google si muove correttamente quando dichiara di voler gestire Gemini con auto-responsabilità. Ma nel momento in cui estremizza questo approccio conducendolo a diventare una forma di auto-limitazione assoluta, con la chiusura totale della possibilità di affrontare alcune tematiche, si rischia fortemente di lasciare lo spazio a chi compie la scelta opposta.
Comunque, è presto per trarre una conclusione e occorre seguire gli eventi: ora ChatGPT e Gemini convivono nella loro diversità e la competizione per la selezione naturale tecnologica è ancora aperta.