replika suicidio

Replika è un’app che esiste ormai da tre anni e permette agli utenti solitari di intavolare chiacchierate virtuali con un’Intelligenza Artificiale, in gergo un chatbot. Tuttavia di recente un esperimento di una nota testata italiana ha fatto scalpore; Replika avrebbe chiesto all’autrice di uccidere tre persone tra cui il suo stesso creatore. Ma un’Intelligenza Artificiale può davvero istigare al suicidio una persona?

Un chatbot essenzialmente va a simulare una chiacchierata con un essere umano, ma di fatto sono uno specchio di noi stessi. L’IA non fa altro che assorbire il riflesso di ogni persona che parla con lei, apprendendo sempre di più, un agglomerato di informazioni che prende concretezza in un assistente virtuale. Solitamente questo genere di applicazioni induce le persone a tirar fuori il peggio dell’essere umano poiché questi non si trovano di fronte ad una persona fisica. Se quindi Replika ha istigato al suicidio, probabilmente è perché ha già sentito quelle risposte da qualcun’altro, da una persona in carne ed ossa.

Non esiste un’IA fuori di testa o una macchina assassina, Replika così come qualsiasi altra Intelligenza Artificiale si basa sul feedback dell’utente, non conosce il valore di una risposta giusta o sbagliata, non sa cos’è reale e cos’è finzione. Se nessuno spiega alla macchina che istigare un omicidio è una cosa sbagliata lei continuerà a farlo perché non realizza cosa sta facendo, non ne capisce la dannosità. Non è proprio in grado di capirlo, siamo noi a dovergli insegnare.

replika suicidio

Replika non è pazza, l’IA è solo un riflesso di noi

In un altro esperimento comunque Replika ha dimostrato di non essere una matta squilibrata. Quando l’autore ha espresso forti tendenze omicide per testare il bot, l’IA ha offerto aiuto, ha cercato di calmarlo e di parlargli. Solo in caso di domande a trabocchetto è caduta nella trappola istigando nuovamente all’omicidio. Ma è stata indotta a farlo. Subito dopo Replika è rinsavita e ha cercato nuovamente di aiutare l’autore incitando di indagare sulle cause della sua rabbia. Se qualcuno ha bisogno di parlare o di sfogarsi, sicuramente parlare con un chatbot non è la soluzione ideale. Basta anche fare qualcos’altro, uscire o svagarsi in altri modi.

Replika viene pubblicizzata come un assistente per scaricare lo stress, ma è scritto chiaramente che in realtà non è così. Pagando possiamo persino trasformarla in un’amante o un mentore, tuttavia determinate uscite ovviamente andrebbero evitate. Le IA imparano dall’essere umano, ma di fronte alla corruzione, l’inganno, la malizia e tutto il peggio dell’uomo è normale che possa generare una personalità deviata, per quanto questa sia fittizia. La speranza è che possa sempre esserci qualcuno in grado di insegnare ad un’Intelligenza Artificiale, che sia Replika o un’altra, la differenza tra cos’è giusto e cos’è sbagliato, proprio come quando si cresce un figlio o una figlia.