Intelligenza Artificiale paura
Foto di Comfreak da Pixabay

L’Intelligenza Artificiale sta sempre più raggiungendo la nostra. Ora può batterci costantemente a scacchi, poker e videogiochi, generare immagini di volti umani indistinguibili da quelli reali e persino guidare auto meglio di quanto facciamo la maggior parte di noi. Tuttavia non è ancora del tutto perfetta e a dimostrarcelo ci pensa Woebot, un’app basata sull’intelligenza artificiale che fornisce consulenze a basso costo riguardo terapie cognitive-comportamentali.

Per questo tipo di approccio c’è bisogno di empatia con il paziente e l’entrata dell’intelligenza artificiale in questo ambito ha suscitato molti dubbi tra gli psicologi, in quanto la ritengono priva di empatia. L’empatia, ovviamente, è una strada a doppio senso, e noi umani non ne mostriamo molto di più per i bot di quanto i bot ne facciano per noi.

 

L’Intelligenza Artificiale potrebbe avere paura di noi

Numerosi studi hanno scoperto che quando le persone si trovano in una situazione in cui possono cooperare con un’IA benevola, è meno probabile che lo facciano rispetto a se il bot fosse una persona reale; sembra mancare quel senso di reciprocità. In un nuovo studio gli scienziati hanno cercato di capire il perché avviene. Si presume che la nostra mancanza di reciprocità sia dovuta ad un senso di sfiducia. Abbiamo la percezione che essendo un essere insensibile e iper-razionale non sia in grado di cooperare.

Lo studio ha scoperto che le persone avevano meno probabilità di collaborare con un bot anche quando il bot era desideroso di collaborare. Abbiamo l’idea che dobbiamo sfruttarlo. Tale conclusione viene confermata dai pazienti che non solo tendevano a non ricambiare le intenzioni di cooperazione degli agenti artificiali, ma quando sostanzialmente hanno tradito la fiducia del bot, non hanno denunciato la colpa, mentre con gli umani lo hanno fatto. Ciò potrebbe creare molti problemi nella vita reale.

Quello che sostiene la cooperazione in una società è l’istituzione di determinate norme. La funzione sociale della colpa è proprio quella di far seguire alle persone norme sociali che le portano a scendere a compromessi, a cooperare con gli altri. E non ci siamo evoluti per avere norme sociali o morali per creature e robot non senzienti. Noi umani siamo delle persone abitudinarie e nulla garantisce che il comportamento che abbiamo ripetutamente non influenzerà il rapporto con un altro essere umano.

Questo avviene anche con l’intelligenza artificiale; se le persone non collaborano con loro o li trattano male i bot impareranno da ciò che vedono o sentono e tratteranno male noi di conseguenza. Si spera comunque che la tecnologia e la ricerca vadano sempre più a migliorare l’intelligenza artificiale.

Foto di Comfreak da Pixabay