L’Intelligenza Artificiale potrebbe provare paura nei nostri confronti

Date:

Share post:

L’Intelligenza Artificiale sta sempre più raggiungendo la nostra. Ora può batterci costantemente a scacchi, poker e videogiochi, generare immagini di volti umani indistinguibili da quelli reali e persino guidare auto meglio di quanto facciamo la maggior parte di noi. Tuttavia non è ancora del tutto perfetta e a dimostrarcelo ci pensa Woebot, un’app basata sull’intelligenza artificiale che fornisce consulenze a basso costo riguardo terapie cognitive-comportamentali.

Per questo tipo di approccio c’è bisogno di empatia con il paziente e l’entrata dell’intelligenza artificiale in questo ambito ha suscitato molti dubbi tra gli psicologi, in quanto la ritengono priva di empatia. L’empatia, ovviamente, è una strada a doppio senso, e noi umani non ne mostriamo molto di più per i bot di quanto i bot ne facciano per noi.

 

L’Intelligenza Artificiale potrebbe avere paura di noi

Numerosi studi hanno scoperto che quando le persone si trovano in una situazione in cui possono cooperare con un’IA benevola, è meno probabile che lo facciano rispetto a se il bot fosse una persona reale; sembra mancare quel senso di reciprocità. In un nuovo studio gli scienziati hanno cercato di capire il perché avviene. Si presume che la nostra mancanza di reciprocità sia dovuta ad un senso di sfiducia. Abbiamo la percezione che essendo un essere insensibile e iper-razionale non sia in grado di cooperare.

Lo studio ha scoperto che le persone avevano meno probabilità di collaborare con un bot anche quando il bot era desideroso di collaborare. Abbiamo l’idea che dobbiamo sfruttarlo. Tale conclusione viene confermata dai pazienti che non solo tendevano a non ricambiare le intenzioni di cooperazione degli agenti artificiali, ma quando sostanzialmente hanno tradito la fiducia del bot, non hanno denunciato la colpa, mentre con gli umani lo hanno fatto. Ciò potrebbe creare molti problemi nella vita reale.

Quello che sostiene la cooperazione in una società è l’istituzione di determinate norme. La funzione sociale della colpa è proprio quella di far seguire alle persone norme sociali che le portano a scendere a compromessi, a cooperare con gli altri. E non ci siamo evoluti per avere norme sociali o morali per creature e robot non senzienti. Noi umani siamo delle persone abitudinarie e nulla garantisce che il comportamento che abbiamo ripetutamente non influenzerà il rapporto con un altro essere umano.

Questo avviene anche con l’intelligenza artificiale; se le persone non collaborano con loro o li trattano male i bot impareranno da ciò che vedono o sentono e tratteranno male noi di conseguenza. Si spera comunque che la tecnologia e la ricerca vadano sempre più a migliorare l’intelligenza artificiale.

Foto di Comfreak da Pixabay

Marco Inchingoli
Marco Inchingoli
Nato a Roma nel 1989, Marco Inchingoli ha sempre nutrito una forte passione per la scrittura. Da racconti fantasiosi su quaderni stropicciati ad articoli su riviste cartacee spinge Marco a perseguire un percorso da giornalista. Dai videogiochi - sua grande passione - al cinema, gli argomenti sono molteplici, fino all'arrivo su FocusTech dove ora scrive un po' di tutto.

Related articles

Recensione Call of Duty: Black Ops 6, è il migliore degli ultimi anni?

Call of Duty: Black Ops 6 è l'ultima fatica di Treyarch e Raven Software, uno sparatutto che prende quanto...

Inquinanti eterni e il danno ai reni e alla salute

Ogni età da quando l'uomo esiste è caratterizzata dalla presenza di varie problematiche, alcune di origine naturale e...

Forex Robots: Il futuro del Trading automatizzato nel mondo del mercato finanziario Tech-Driven

Sentiamo tutti i giorni parlare di intelligenza artificiale e di come questa ha cambiato il mondo negli ultimi...

Prediabete: le 5 mosse consigliate dai medici per prevenire la malattia

Il prediabete è una condizione in cui i livelli di zucchero nel sangue sono più alti del normale,...