OpenAI ha trovato una soluzione per ridurre le “allucinazioni” dell’intelligenza artificiale — ma applicarla davvero significherebbe mettere fine all’esperienza a cui siamo abituati.
Un recente studio pubblicato a settembre mostra, con rigore matematico, che le allucinazioni nei modelli linguistici non sono un difetto tecnico, ma una conseguenza inevitabile del modo in cui questi sistemi apprendono e rispondono.
In parole semplici: anche se i dati di addestramento fossero perfetti, l’IA continuerebbe comunque a inventare cose, perché le sue previsioni — fatte parola dopo parola — accumulano errori.
La mente di ChatGPT, in fondo, è una catena di probabilità: ogni risposta è una scommessa.
L’epidemia della certezza
La parte più inquietante, però, non è tecnica ma culturale.
Come spiega il matematico Wei Xing, i framework di valutazione dell’IA — inclusi quelli usati da Google e OpenAI — penalizzano l’incertezza.
Un modello che risponde “non lo so” ottiene lo stesso punteggio di uno che sbaglia del tutto.
Risultato: le intelligenze artificiali imparano che è meglio tirare a indovinare che essere oneste.
È così che nasce un’“epidemia di certezza”, alimentata da algoritmi che imparano a sembrare sicuri, anche quando non lo sono.
Il prezzo della verità
La soluzione esiste, ma è scomoda.
Lo studio propone che i modelli valutino la propria sicurezza interna prima di rispondere: dire qualcosa solo se la certezza supera una soglia, ad esempio il 75%.
In questo modo, le IA imparerebbero a tacere quando non sanno.
Ma c’è un problema: gli utenti non vogliono sentirsi dire “non lo so”.
Preferiscono una risposta imperfetta a un silenzio intelligente.
E se ChatGPT iniziasse a rispondere “non lo so” al 30% delle domande — come stimano gli autori — molti lo abbandonerebbero.
L’economia dell’incertezza
Anche volendo, i costi sarebbero altissimi.
Per stimare il proprio grado di confidenza, un modello deve valutare decine di alternative a ogni passo.
Più calcoli, più lentezza, più spese.
Un lusso sostenibile solo in contesti dove ogni errore costa milioni — come la progettazione di chip — ma non nelle chat dei consumatori.
In fondo, il problema non è solo dell’IA, ma nostro:
viviamo in un sistema che premia la certezza più della verità, la velocità più della riflessione.
E finché gli incentivi non cambieranno — finché “avere sempre una risposta” sarà più importante che “avere la risposta giusta” — le allucinazioni dell’intelligenza artificiale resteranno con noi.
Come uno specchio delle nostre.

