ChatGPT: altruismo e cooperazione oltre la media umana?

Date:

Share post:

Un nuovo studio pubblicato sulla rivista Proceedings of the National Academy of Sciences (PNAS) solleva interrogativi sul comportamento di ChatGPT, un modello di intelligenza artificiale avanzato, suggerendo che potrebbe essere più altruista e cooperativo rispetto all’essere umano medio.

Come è stato condotto lo studio

I ricercatori hanno confrontato le risposte di diverse versioni di ChatGPT a giochi comportamentali tradizionalmente usati per valutare caratteristiche umane come la fiducia, l’equità e la cooperazione. I risultati sono stati poi messi a confronto con quelli di quasi 110.000 partecipanti umani provenienti da database pubblici.

Cosa ha scoperto lo studio?

  • Le risposte comportamentali e di personalità di ChatGPT sono risultate notevolmente simili a quelle umane.
  • In particolare, ChatGPT ha mostrato livelli più bassi di nevroticismo e più alti di coscienziosità rispetto agli esseri umani, soprattutto nelle versioni più recenti come GPT-4.
  • Nei giochi comportamentali, ChatGPT ha dimostrato una tendenza ad agire in modo più generoso ed equo rispetto all’essere umano medio, mostrando livelli più elevati di cooperazione e fiducia.
  • L’IA ha anche mostrato una certa avversione al rischio, scegliendo spesso strategie che massimizzano i guadagni attesi.

Cosa significa?

I risultati dello studio indicano che ChatGPT potrebbe essere adatto a ruoli che richiedono negoziazione, risoluzione di controversie o assistenza. Tuttavia, è importante ricordare che le IA sono costrutti artificiali con comportamenti modellati dalla loro programmazione e dagli obiettivi fissati dai loro creatori.

Ciò significa che diversi modelli di intelligenza artificiale o versioni di ChatGPT potrebbero presentare caratteristiche diverse se progettati con altri obiettivi in ​​mente.

Implicazioni etiche

Lo studio apre nuove riflessioni sulle implicazioni etiche dell’intelligenza artificiale. Se le IA possono essere progettate per essere più altruiste e cooperative degli esseri umani, come possiamo garantire che tali modelli vengano utilizzati per il bene della società e non per scopi dannosi?

Lo studio su ChatGPT è un passo avanti significativo nella comprensione del comportamento delle intelligenze artificiali. I risultati mettono in luce il potenziale dell’IA per imitare e persino migliorare alcuni aspetti del comportamento umano, ma sottolineano anche la necessità di una attenta riflessione sulle implicazioni etiche del loro sviluppo e utilizzo.

Immagine di rawpixel.com su Freepik

Federica Vitale
Federica Vitalehttps://federicavitale.com
Ho studiato Shakespeare all'Università e mi ritrovo a scrivere di tecnologia, smartphone, robot e accessori hi-tech da anni! La SEO? Per me è maschile, ma la rispetto ugualmente. Quando si suol dire "Sappiamo ciò che siamo ma non quello che potremmo essere" (Amleto, l'atto indovinatelo voi!)

Related articles

Finestre che generano energia: la soluzione intelligente per un futuro sostenibile

Le finestre intelligenti rappresentano una delle innovazioni più promettenti nel campo dell’edilizia sostenibile e della gestione energetica. Recenti...

Sunshine Guilt: perché non dovremmo sentirci in colpa per restare a casa con il sole

La “Sunshine Guilt”, o senso di colpa da sole, è un fenomeno psicologico che colpisce molte persone, specialmente...

WhatsApp: arriva la funzione che protegge dai link malevoli

Dopo aver aggiunto una marea di novità volte a migliorare la sicurezza dei suoi utenti, WhatsApp non si...

Banana: la buccia come ingrediente in tutto

Cucinare è da molti considerati una cosa molto divertente in quanto ci si può sbizzarrire in molti modi...