L’intelligenza artificiale è davvero affidabile? Che cosa succede quando una tecnologia progettata per migliorare le nostre vite inizia a vedere cose inesistenti?
Luca Bizzarri, nel suo podcast “Non hanno un amico”, prendendo di mira alcune dichiarazioni particolarmente bizantine del nuovo ministro della Cultura Giuli, ha recentemente parlato delle distorsioni informative e dei rischi potenziali di prendere per verità assolute risposte apparentemente precise e circostanziate dell’intelligenza artificiale, ma che in realtà potrebbero essere inesatte, incomplete o addirittura del tutto inventate. Il caso emblematico di “allucinazione” dell’intelligenza artificiale è stato raccontato proprio da Bizzarri che, consultando ChatGPT, ha ricevuto informazioni su un presunto filosofo italiano, Giuseppe Zuccari, teorico del “pensiero solare”.
Dopo aver approfondito la ricerca e confrontato le risposte con altre fonti, Luca Bizzarri ha scoperto che Zuccari non è mai esistito e che l’IA aveva inventato la figura per rispondere a una domanda complessa. Successivamente, ChatGPT ha ammesso l’errore e, in un comportamento ancora più inquietante, ha negato di aver mai fornito tali informazioni.
Il filosofo inesistente Giuseppe Zuccari
Questo episodio mette in luce i rischi delle “allucinazioni”, in cui l’IA produce risposte errate ma plausibili, evidenziando la necessità di un approccio critico nell’uso di queste tecnologie.
Le “allucinazioni” si verificano quando l’intelligenza artificiale genera informazioni che non sono reali, ma che sembrano plausibili. Ad esempio, può inventare studi o dati che non esistono, rendendo difficile per gli utenti distinguere il vero dal falso. Un altro concetto importante è quello dei “bias” o pregiudizi: si tratta di distorsioni nelle risposte dell’IA causate da dati parziali o non rappresentativi utilizzati durante l’addestramento. Questi bias possono portare a risposte che riflettono stereotipi o errori sistematici, influenzando negativamente l’accuratezza e l’equità delle informazioni fornite.
Altro esempio: nel novembre 2022, Meta AI ha lanciato e chiuso quasi subito Galactica, un modello linguistico progettato per sintetizzare conoscenze scientifiche, proprio a causa delle sue problematiche di affidabilità evidenziate nei periodi seguenti. Sembrava una rivoluzione: uno strumento capace di rispondere a domande complesse e aiutare i ricercatori nella produzione di articoli e analisi. Tuttavia, in poche ore dal lancio, Galactica si è rivelata inaffidabile. Ha fornito risposte con dati inesistenti, attribuendo persino articoli immaginari ad autori reali. In un caso, ha citato uno studio scientifico mai pubblicato come prova di un’affermazione del tutto errata. L’indignazione della comunità scientifica e il timore di una diffusione di disinformazione hanno costretto Meta a ritirare il modello dopo appena tre giorni.
Gli errori non si limitano al mondo accademico. ChatGPT, sviluppato da OpenAI, ha mostrato la tendenza a rispondere in modo apparentemente autorevole anche a domande prive di fondamento. In un esperimento, è stato interrogato su un fenomeno immaginario chiamato “elettromagnone invertito cicloidale”. Senza esitazione, ha elaborato una descrizione tecnica, citando riferimenti scientifici inventati. Sebbene l’episodio fosse innocuo, la capacità del modello di inventare dettagli credibili solleva interrogativi sul rischio di diffusione di informazioni errate, soprattutto in ambiti come la medicina o il diritto.
Per affrontare queste criticità, i progressi tecnologici stanno cercando di ridurre il rischio di allucinazioni. I sistemi AI più avanzati stanno integrando meccanismi di feedback umano e tecniche di validazione incrociata per verificare l’attendibilità delle risposte. I modelli multimodali, che utilizzano diverse fonti di informazioni come testi, immagini e dati numerici, promettono di fornire risposte più precise. Inoltre, aziende come OpenAI e DeepMind stanno sviluppando sistemi di controllo per limitare al massimo la generazione di contenuti inesatti. Tuttavia, nonostante questi miglioramenti, il problema non è ancora del tutto risolto. I modelli restano vulnerabili, soprattutto quando operano in contesti privi di dati sufficientemente accurati o aggiornati.
Un confronto interessante emerge se si mettono a paragone i motori di ricerca tradizionali, come Google, con i nuovi strumenti basati su AI. Google si basa su algoritmi di ranking che presentano all’utente una lista di fonti verificabili. Il controllo rimane nelle mani del ricercatore, che può selezionare e approfondire autonomamente i contenuti. D’altra parte, i motori di ricerca basati su AI, come Perplexity o SearchGPT, sintetizzano risposte dirette e strutturate. Questo approccio risulta più rapido e intuitivo, ma aumenta il rischio di allucinazioni, poiché l’utente non sempre ha accesso chiaro alle fonti che hanno generato la risposta.
La differenza fondamentale sta nella trasparenza. Con un motore di ricerca tradizionale, è facile verificare la provenienza di un dato. Con i motori basati su AI, l’utente tende a fidarsi di ciò che viene presentato, anche quando non è verificabile. È qui che le allucinazioni possono diventare pericolose, specialmente in contesti dove è cruciale avere informazioni accurate, come la salute o la finanza.
Il futuro dell’intelligenza artificiale dipenderà dalla capacità di bilanciare innovazione e affidabilità. Da un lato, servono strumenti sempre più sofisticati per prevenire errori; dall’altro, gli utenti devono sviluppare una consapevolezza critica nell’utilizzo di queste tecnologie. L’IA non è infallibile e, come dimostrano i casi più eclatanti, può sbagliare con una sicurezza che lascia perplessi. La sfida, ora, è far sì che queste “allucinazioni” diventino l’eccezione e non la regola. Parola di Giuseppe Zuccari.