L’Intelligenza Artificiale sta sempre più raggiungendo la nostra. Ora può batterci costantemente a scacchi, poker e videogiochi, generare immagini di volti umani indistinguibili da quelli reali e persino guidare auto meglio di quanto facciamo la maggior parte di noi. Tuttavia non è ancora del tutto perfetta e a dimostrarcelo ci pensa Woebot, un’app basata sull’intelligenza artificiale che fornisce consulenze a basso costo riguardo terapie cognitive-comportamentali.
Per questo tipo di approccio c’è bisogno di empatia con il paziente e l’entrata dell’intelligenza artificiale in questo ambito ha suscitato molti dubbi tra gli psicologi, in quanto la ritengono priva di empatia. L’empatia, ovviamente, è una strada a doppio senso, e noi umani non ne mostriamo molto di più per i bot di quanto i bot ne facciano per noi.
Numerosi studi hanno scoperto che quando le persone si trovano in una situazione in cui possono cooperare con un’IA benevola, è meno probabile che lo facciano rispetto a se il bot fosse una persona reale; sembra mancare quel senso di reciprocità. In un nuovo studio gli scienziati hanno cercato di capire il perché avviene. Si presume che la nostra mancanza di reciprocità sia dovuta ad un senso di sfiducia. Abbiamo la percezione che essendo un essere insensibile e iper-razionale non sia in grado di cooperare.
Lo studio ha scoperto che le persone avevano meno probabilità di collaborare con un bot anche quando il bot era desideroso di collaborare. Abbiamo l’idea che dobbiamo sfruttarlo. Tale conclusione viene confermata dai pazienti che non solo tendevano a non ricambiare le intenzioni di cooperazione degli agenti artificiali, ma quando sostanzialmente hanno tradito la fiducia del bot, non hanno denunciato la colpa, mentre con gli umani lo hanno fatto. Ciò potrebbe creare molti problemi nella vita reale.
Quello che sostiene la cooperazione in una società è l’istituzione di determinate norme. La funzione sociale della colpa è proprio quella di far seguire alle persone norme sociali che le portano a scendere a compromessi, a cooperare con gli altri. E non ci siamo evoluti per avere norme sociali o morali per creature e robot non senzienti. Noi umani siamo delle persone abitudinarie e nulla garantisce che il comportamento che abbiamo ripetutamente non influenzerà il rapporto con un altro essere umano.
Questo avviene anche con l’intelligenza artificiale; se le persone non collaborano con loro o li trattano male i bot impareranno da ciò che vedono o sentono e tratteranno male noi di conseguenza. Si spera comunque che la tecnologia e la ricerca vadano sempre più a migliorare l’intelligenza artificiale.
Il buco nero supermassiccio 1ES 1927+654, situato nella costellazione del Draco, continua a stupire gli astronomi. Dopo aver mostrato nel…
I leak riguardanti i prodotti Apple si susseguono ogni giorno, l'ultimo in ordine temporale va a toccare direttamente il prossimo Apple iPhone SE…
L'argiria è una condizione rara e insolita che colpisce la pelle e le mucose, facendo assumere un colore blu o…
Se solo leggere "hipopotomonstrosesquipedaliofobia" ti causa un pizzico di ansia, potresti non essere solo. Questo termine descrive la fobia delle…
WhatsApp continua a lavorare per portare in campo funzioni interessanti. In queste ore, Meta ha rilasciato l'ultima beta dell'app per…
L’alimentazione non è solo una risposta a un bisogno fisico, ma un atto profondamente radicato nella mente e nei ricordi.…