La verità che ChatGPT non può dire

Date:

Share post:

OpenAI ha trovato una soluzione per ridurre le “allucinazioni” dell’intelligenza artificiale — ma applicarla davvero significherebbe mettere fine all’esperienza a cui siamo abituati.

Un recente studio pubblicato a settembre mostra, con rigore matematico, che le allucinazioni nei modelli linguistici non sono un difetto tecnico, ma una conseguenza inevitabile del modo in cui questi sistemi apprendono e rispondono.

In parole semplici: anche se i dati di addestramento fossero perfetti, l’IA continuerebbe comunque a inventare cose, perché le sue previsioni — fatte parola dopo parola — accumulano errori.
La mente di ChatGPT, in fondo, è una catena di probabilità: ogni risposta è una scommessa.

L’epidemia della certezza

La parte più inquietante, però, non è tecnica ma culturale.
Come spiega il matematico Wei Xing, i framework di valutazione dell’IA — inclusi quelli usati da Google e OpenAI — penalizzano l’incertezza.
Un modello che risponde “non lo so” ottiene lo stesso punteggio di uno che sbaglia del tutto.

Risultato: le intelligenze artificiali imparano che è meglio tirare a indovinare che essere oneste.
È così che nasce un’“epidemia di certezza”, alimentata da algoritmi che imparano a sembrare sicuri, anche quando non lo sono.

Il prezzo della verità

La soluzione esiste, ma è scomoda.
Lo studio propone che i modelli valutino la propria sicurezza interna prima di rispondere: dire qualcosa solo se la certezza supera una soglia, ad esempio il 75%.

In questo modo, le IA imparerebbero a tacere quando non sanno.
Ma c’è un problema: gli utenti non vogliono sentirsi dire “non lo so”.
Preferiscono una risposta imperfetta a un silenzio intelligente.

E se ChatGPT iniziasse a rispondere “non lo so” al 30% delle domande — come stimano gli autori — molti lo abbandonerebbero.

L’economia dell’incertezza

Anche volendo, i costi sarebbero altissimi.
Per stimare il proprio grado di confidenza, un modello deve valutare decine di alternative a ogni passo.
Più calcoli, più lentezza, più spese.
Un lusso sostenibile solo in contesti dove ogni errore costa milioni — come la progettazione di chip — ma non nelle chat dei consumatori.

In fondo, il problema non è solo dell’IA, ma nostro:
viviamo in un sistema che premia la certezza più della verità, la velocità più della riflessione.
E finché gli incentivi non cambieranno — finché “avere sempre una risposta” sarà più importante che “avere la risposta giusta” — le allucinazioni dell’intelligenza artificiale resteranno con noi.
Come uno specchio delle nostre.

Foto di Growtika su Unsplash

Federica Vitale
Federica Vitalehttps://federicavitale.com
Ho studiato Shakespeare all'Università e mi ritrovo a scrivere di tecnologia, smartphone, robot e accessori hi-tech da anni! La SEO? Per me è maschile, ma la rispetto ugualmente. Quando si suol dire "Sappiamo ciò che siamo ma non quello che potremmo essere" (Amleto, l'atto indovinatelo voi!)

Related articles

Amazon lancia le offerte del Black Friday in anticipo: ecco le migliori

Il Black Friday è sempre più vicino e Amazon ha già iniziato a sfornare una marea di offerte...

Baxdrostat: il nuovo farmaco che abbassa la pressione nelle 24 ore nei pazienti con ipertensione resistente

L’ipertensione è una delle principali cause di morte nel mondo, ma la forma più difficile da trattare —...

Perché l’Africa ospita i giganti della Terra: il ruolo chiave dell’uomo

L’Africa è l’unica regione al mondo dove la megafauna terrestre non solo sopravvive, ma prospera. Elefanti che superano...

Prostata e limone: cosa dice davvero la scienza e quali benefici possiamo aspettarci

La salute della prostata è un tema centrale per milioni di uomini, soprattutto dopo i 50 anni. Tra...