Con l’arrivo dell’intelligenza artificiale (IA), milioni di persone utilizzano ogni giorno chatbot, assistenti virtuali e strumenti di automazione per lavorare, studiare o creare contenuti. Ma un curioso fenomeno psicologico sta emergendo: l’effetto Dunning-Kruger al contrario. Se l’effetto originale descrive chi si sopravvaluta, quello “inverso” riguarda chi, confrontandosi con l’IA, tende a sottovalutare le proprie capacità, credendo che la macchina sappia sempre meglio di lui.
Cos’è l’effetto Dunning-Kruger
L’effetto Dunning-Kruger, individuato alla fine degli anni ’90 dagli psicologi David Dunning e Justin Kruger, descrive una distorsione cognitiva per cui le persone meno competenti sopravvalutano le proprie abilità, mentre chi ha più esperienza tende a essere più critico verso se stesso. Nell’era dell’intelligenza artificiale, però, questa dinamica si ribalta: gli utenti preparati dubitano di sé quando si trovano davanti a un sistema apparentemente onnisciente.
Quando la macchina sembra più intelligente
Le IA generative come ChatGPT o i software di creazione automatica di immagini sono progettati per rispondere con fluidità, coerenza e sicurezza. Questo stile comunicativo induce molti utenti a percepire un’autorità superiore, anche quando la macchina fornisce informazioni errate o incomplete. Il risultato? Persone qualificate, studenti e professionisti tendono a fidarsi più dell’IA che di se stessi, rinunciando al proprio spirito critico.
Il paradosso della competenza
Il fenomeno è stato osservato in diversi esperimenti: utenti esperti in scrittura o matematica, dopo aver ricevuto risposte da un sistema di IA, valutano le proprie soluzioni come peggiori, anche quando in realtà sono più accurate. È il cosiddetto “effetto Dunning-Kruger inverso”, un paradosso in cui la competenza genera insicurezza perché si confronta con un’intelligenza percepita come superiore. La macchina non umilia, ma silenziosamente ridimensiona l’autostima cognitiva.
Le conseguenze psicologiche e sociali
A lungo termine, questo effetto può avere implicazioni profonde. Gli utenti rischiano di perdere fiducia nel proprio pensiero critico, delegando alle macchine il giudizio, la creatività e la risoluzione dei problemi. Nelle aziende o nelle scuole, ciò può tradursi in una dipendenza cognitiva, dove le decisioni vengono prese “perché lo ha detto l’algoritmo”. Paradossalmente, più siamo competenti, più rischiamo di sentirci inadeguati.
L’importanza della metacognizione
Gli psicologi invitano a sviluppare la metacognizione, cioè la consapevolezza dei propri processi mentali, per evitare di cadere in questa trappola. Riconoscere che l’intelligenza artificiale non “pensa” come un essere umano, ma elabora probabilità linguistiche, aiuta a ristabilire le giuste proporzioni. In altre parole, bisogna ricordare che l’IA non ha comprensione, intuizione o contesto emotivo, ma solo un’enorme capacità di correlare dati.
Collaborare, non competere
Il segreto è cambiare prospettiva: non bisogna competere con l’intelligenza artificiale, ma collaborare con essa. Gli strumenti digitali possono amplificare le nostre capacità, non sostituirle. Quando un utente mantiene il controllo critico — verificando le fonti, interpretando i risultati, aggiungendo creatività e giudizio umano — l’IA diventa un alleato cognitivo, non una minaccia alla propria competenza.
Recuperare fiducia nel pensiero umano
In un’epoca in cui le macchine sembrano saper fare tutto, la vera sfida è riconoscere il valore dell’intelligenza umana: la curiosità, l’empatia, la capacità di collegare idee lontane e di dare senso alle informazioni. L’effetto Dunning-Kruger al contrario è un segnale di allarme, ma anche un’opportunità per riscoprire che la conoscenza non è solo precisione, è anche intuizione. E questa, per ora, resta una qualità tutta umana.
Foto di Alexandra_Koch da Pixabay

