L’Intelligenza Artificiale potrebbe provare paura nei nostri confronti

Date:

Share post:

L’Intelligenza Artificiale sta sempre più raggiungendo la nostra. Ora può batterci costantemente a scacchi, poker e videogiochi, generare immagini di volti umani indistinguibili da quelli reali e persino guidare auto meglio di quanto facciamo la maggior parte di noi. Tuttavia non è ancora del tutto perfetta e a dimostrarcelo ci pensa Woebot, un’app basata sull’intelligenza artificiale che fornisce consulenze a basso costo riguardo terapie cognitive-comportamentali.

Per questo tipo di approccio c’è bisogno di empatia con il paziente e l’entrata dell’intelligenza artificiale in questo ambito ha suscitato molti dubbi tra gli psicologi, in quanto la ritengono priva di empatia. L’empatia, ovviamente, è una strada a doppio senso, e noi umani non ne mostriamo molto di più per i bot di quanto i bot ne facciano per noi.

 

L’Intelligenza Artificiale potrebbe avere paura di noi

Numerosi studi hanno scoperto che quando le persone si trovano in una situazione in cui possono cooperare con un’IA benevola, è meno probabile che lo facciano rispetto a se il bot fosse una persona reale; sembra mancare quel senso di reciprocità. In un nuovo studio gli scienziati hanno cercato di capire il perché avviene. Si presume che la nostra mancanza di reciprocità sia dovuta ad un senso di sfiducia. Abbiamo la percezione che essendo un essere insensibile e iper-razionale non sia in grado di cooperare.

Lo studio ha scoperto che le persone avevano meno probabilità di collaborare con un bot anche quando il bot era desideroso di collaborare. Abbiamo l’idea che dobbiamo sfruttarlo. Tale conclusione viene confermata dai pazienti che non solo tendevano a non ricambiare le intenzioni di cooperazione degli agenti artificiali, ma quando sostanzialmente hanno tradito la fiducia del bot, non hanno denunciato la colpa, mentre con gli umani lo hanno fatto. Ciò potrebbe creare molti problemi nella vita reale.

Quello che sostiene la cooperazione in una società è l’istituzione di determinate norme. La funzione sociale della colpa è proprio quella di far seguire alle persone norme sociali che le portano a scendere a compromessi, a cooperare con gli altri. E non ci siamo evoluti per avere norme sociali o morali per creature e robot non senzienti. Noi umani siamo delle persone abitudinarie e nulla garantisce che il comportamento che abbiamo ripetutamente non influenzerà il rapporto con un altro essere umano.

Questo avviene anche con l’intelligenza artificiale; se le persone non collaborano con loro o li trattano male i bot impareranno da ciò che vedono o sentono e tratteranno male noi di conseguenza. Si spera comunque che la tecnologia e la ricerca vadano sempre più a migliorare l’intelligenza artificiale.

Foto di Comfreak da Pixabay

Marco Inchingoli
Marco Inchingoli
Nato a Roma nel 1989, Marco Inchingoli ha sempre nutrito una forte passione per la scrittura. Da racconti fantasiosi su quaderni stropicciati ad articoli su riviste cartacee spinge Marco a perseguire un percorso da giornalista. Dai videogiochi - sua grande passione - al cinema, gli argomenti sono molteplici, fino all'arrivo su FocusTech dove ora scrive un po' di tutto.

Related articles

Recensione Synology BeeStation: il prodotto per creare un cloud personale

Synology è azienda conosciuta in tutto il mondo per la produzione di dispositivi legati al segmento NAS, di cui vi...

Una svolta nella ricerca dei numeri primi: scoperto un nuovo metodo

La matematica dei numeri primi, da sempre fonte di fascino e mistero, ha appena compiuto un importante passo...

Offerte di Natale Amazon: ecco le migliori proposte

Siete alla ricerca del regalo di Natale perfetto, ma non avete tempo di girare per negozi? Amazon arriva...

La sedentarietà che fa bene: attività per nutrire il cervello e migliorare il benessere mentale

Quando si parla di attività sedentarie, si tende spesso a collegarle a rischi per la salute, come obesità,...