Il tema delle allucinazioni nei modelli per l’intelligenza artificiale è un argomento sicuramente affascinante.
Un’allucinazione AI è il termine che indica quando un modello di intelligenza artificiale genera informazioni false, fuorvianti o illogiche, presentandole come se fossero un fatto. Le allucinazioni AI sono talvolta difficili da individuare, perché la grammatica e la struttura delle frasi generate dall’AI spesso appaiono soddisfacenti e sicure quando le si legge, nonostante contengano ad una analisi più attenta, imprecisioni.
Questo a dire il vero succede anche nel mondo reale, e più che spesso gli essere umani sfruttano queste allucinazioni per introdurre notizie infondate a proprio vantaggio, ma questa è un’altra storia.
Che cosa sono le allucinazioni da AI
Tornando al tema, che cosa sono esattamente e dove avvengono queste allucinazioni?
Esse sono il risultato di limitazioni nei dati di addestramento dei modelli, di una cattiva interpretazione degli algoritmi utilizzati soprattutto per generare del testo, simile a quello che scriverebbe un essere umano, senza però comprenderne il vero significato, perché tali modelli si basano sulla probabilità di associare la corretta parola successiva e non sull’accuratezza di tali parole. Questo fenomeno è tanto più riscontrabile quando i dati di addestramento sono distorti e di bassa qualità, quando il motore di AI non ha il giusto contesto o la programmazione del modello non è sufficiente per interpretare correttamente le informazioni.
I modelli LLM
Per comprendere meglio le allucinazioni AI è doveroso fare un passo indietro e spiegare come vengono addestrati i modelli per l’intelligenza artificiale generativa. Questi modelli (LLM) vengono alimentati con enormi quantità di dati testuali, inclusi libri e articoli di giornale. Quei dati vengono quindi scomposti in lettere e parole. Anche se i LLM utilizzano reti neurali per capire come queste parole e lettere lavorano insieme, non imparano mai il significato delle parole stesse.
Non dire gatto..
Per fare un esempio, se vediamo la parola “gatto”, questa ci evoca immediatamente esperienze e cose riguardanti i gatti, per il modello del linguaggio invece “gatto” è una sequenza di caratteri “g-a-t-t-o” scritte insieme ad altre sequenze di caratteri sui quali tenta di costruire una concatenazione di parole, ma alla fine non riescono ancora a comprendere la realtà di cui stanno parlando.
Quando si parla di intelligenza artificiale generativa insomma, non si parla davvero di intelligenza ma di abbinamento di modelli per ottenere risposte, anche se non sono corrette nella sostanza.
Sulla base di quanto detto, ci sono stati numerosi “incidenti” riguardanti anche i motori più diffusi come Google Bard, Chat Gpt e Bing. Gli errori generati vanno dalle incongruenze, alle informazioni inventate fino a risposte strane e inquietanti.
Le conseguenze
Le allucinazioni AI fanno parte di una lista crescente di preoccupazioni etiche riguardanti l’intelligenza artificiale generativa. Questi strumenti possono creare montagne di contenuti fluenti, ma inaccurati, in pochi secondi, molto più velocemente di quanto potrebbe fare qualsiasi essere umano da solo. E questo porta a diversi problemi, in primis la generazione di disinformazione, ma anche danni per gli utenti e perdita di fiducia nel mezzo stesso.
Come prevenire le allucinazioni AI
Tutti i leader nello spazio dell’intelligenza artificiale generativa stanno lavorando per aiutare a risolvere il problema delle allucinazioni AI.
Le azioni che sono possibili per arginare questo fenomeno sono semplici ma allo stesso tempo complesse da realizzare: fornire ai modelli dati sempre aggiornati, fornire dati rilevanti e corretti per ogni settore, avere la possibilità di controllare la gradualità di “creatività” delle risposte fornite. Infine la soluzione principe valida in ogni occasione, il modo più sicuro di individuare le allucinazioni AI: verificare, la responsabilità finale infatti rimane dell’utente, che deve verificare le risposte generate da un modello prima di utilizzarne o condividerne il contenuto.
Luca Finocchiaro