ChatGPT: altruismo e cooperazione oltre la media umana?

Date:

Share post:

Un nuovo studio pubblicato sulla rivista Proceedings of the National Academy of Sciences (PNAS) solleva interrogativi sul comportamento di ChatGPT, un modello di intelligenza artificiale avanzato, suggerendo che potrebbe essere più altruista e cooperativo rispetto all’essere umano medio.

Come è stato condotto lo studio

I ricercatori hanno confrontato le risposte di diverse versioni di ChatGPT a giochi comportamentali tradizionalmente usati per valutare caratteristiche umane come la fiducia, l’equità e la cooperazione. I risultati sono stati poi messi a confronto con quelli di quasi 110.000 partecipanti umani provenienti da database pubblici.

Cosa ha scoperto lo studio?

  • Le risposte comportamentali e di personalità di ChatGPT sono risultate notevolmente simili a quelle umane.
  • In particolare, ChatGPT ha mostrato livelli più bassi di nevroticismo e più alti di coscienziosità rispetto agli esseri umani, soprattutto nelle versioni più recenti come GPT-4.
  • Nei giochi comportamentali, ChatGPT ha dimostrato una tendenza ad agire in modo più generoso ed equo rispetto all’essere umano medio, mostrando livelli più elevati di cooperazione e fiducia.
  • L’IA ha anche mostrato una certa avversione al rischio, scegliendo spesso strategie che massimizzano i guadagni attesi.

Cosa significa?

I risultati dello studio indicano che ChatGPT potrebbe essere adatto a ruoli che richiedono negoziazione, risoluzione di controversie o assistenza. Tuttavia, è importante ricordare che le IA sono costrutti artificiali con comportamenti modellati dalla loro programmazione e dagli obiettivi fissati dai loro creatori.

Ciò significa che diversi modelli di intelligenza artificiale o versioni di ChatGPT potrebbero presentare caratteristiche diverse se progettati con altri obiettivi in ​​mente.

Implicazioni etiche

Lo studio apre nuove riflessioni sulle implicazioni etiche dell’intelligenza artificiale. Se le IA possono essere progettate per essere più altruiste e cooperative degli esseri umani, come possiamo garantire che tali modelli vengano utilizzati per il bene della società e non per scopi dannosi?

Lo studio su ChatGPT è un passo avanti significativo nella comprensione del comportamento delle intelligenze artificiali. I risultati mettono in luce il potenziale dell’IA per imitare e persino migliorare alcuni aspetti del comportamento umano, ma sottolineano anche la necessità di una attenta riflessione sulle implicazioni etiche del loro sviluppo e utilizzo.

Immagine di rawpixel.com su Freepik

Federica Vitale
Federica Vitalehttps://federicavitale.com
Ho studiato Shakespeare all'Università e mi ritrovo a scrivere di tecnologia, smartphone, robot e accessori hi-tech da anni! La SEO? Per me è maschile, ma la rispetto ugualmente. Quando si suol dire "Sappiamo ciò che siamo ma non quello che potremmo essere" (Amleto, l'atto indovinatelo voi!)

Related articles

Trapianti di cellule staminali neurali: speranza per il trattamento delle lesioni spinali

I trapianti di cellule staminali neurali si stanno rivelando una delle frontiere più promettenti per il trattamento delle...

Depressione negli adolescenti: il legame tra risposta di ricompensa attenuata e debolezza emotiva

La depressione è un disturbo complesso che coinvolge fattori biologici, psicologici e sociali. Negli ultimi anni, la ricerca...

Misteriose luci sopra il cielo del Portogallo: un fenomeno ancora senza spiegazione

Nelle notti intorno al 9 dicembre, strane luci sono apparse nel cielo portoghese, suscitando perplessità tra residenti ed...

Dislessia e genetica: i cambiamenti cerebrali che influenzano linguaggio, visione e movimento

La dislessia è un disturbo specifico dell'apprendimento che colpisce milioni di persone in tutto il mondo. Nonostante la...