Un nuovo studio pubblicato sulla rivista Proceedings of the National Academy of Sciences (PNAS) solleva interrogativi sul comportamento di ChatGPT, un modello di intelligenza artificiale avanzato, suggerendo che potrebbe essere più altruista e cooperativo rispetto all’essere umano medio.
Come è stato condotto lo studio
I ricercatori hanno confrontato le risposte di diverse versioni di ChatGPT a giochi comportamentali tradizionalmente usati per valutare caratteristiche umane come la fiducia, l’equità e la cooperazione. I risultati sono stati poi messi a confronto con quelli di quasi 110.000 partecipanti umani provenienti da database pubblici.
Cosa ha scoperto lo studio?
- Le risposte comportamentali e di personalità di ChatGPT sono risultate notevolmente simili a quelle umane.
- In particolare, ChatGPT ha mostrato livelli più bassi di nevroticismo e più alti di coscienziosità rispetto agli esseri umani, soprattutto nelle versioni più recenti come GPT-4.
- Nei giochi comportamentali, ChatGPT ha dimostrato una tendenza ad agire in modo più generoso ed equo rispetto all’essere umano medio, mostrando livelli più elevati di cooperazione e fiducia.
- L’IA ha anche mostrato una certa avversione al rischio, scegliendo spesso strategie che massimizzano i guadagni attesi.
Cosa significa?
I risultati dello studio indicano che ChatGPT potrebbe essere adatto a ruoli che richiedono negoziazione, risoluzione di controversie o assistenza. Tuttavia, è importante ricordare che le IA sono costrutti artificiali con comportamenti modellati dalla loro programmazione e dagli obiettivi fissati dai loro creatori.
Ciò significa che diversi modelli di intelligenza artificiale o versioni di ChatGPT potrebbero presentare caratteristiche diverse se progettati con altri obiettivi in mente.
Implicazioni etiche
Lo studio apre nuove riflessioni sulle implicazioni etiche dell’intelligenza artificiale. Se le IA possono essere progettate per essere più altruiste e cooperative degli esseri umani, come possiamo garantire che tali modelli vengano utilizzati per il bene della società e non per scopi dannosi?
Lo studio su ChatGPT è un passo avanti significativo nella comprensione del comportamento delle intelligenze artificiali. I risultati mettono in luce il potenziale dell’IA per imitare e persino migliorare alcuni aspetti del comportamento umano, ma sottolineano anche la necessità di una attenta riflessione sulle implicazioni etiche del loro sviluppo e utilizzo.