ai facebook anti suicide

Da circa un anno Facebook ha iniziato ad analizzare gli accounts degli utenti tramite l’utilizzo di intelligenza artificiale. Facebook è andato in cerca di segnali di rischio di autolesionismo.

 

I risultati di un anno di analisi con AI anti suicidio

Antigone Davis, il Global Head of Safety dell’azienda di Zuckerberg si è dichiarato soddisfatto dei risultati ottenuti. Nel primo mese sono stati segnalati 100 casi, in cui Facebook ha contattato i servizi di emergenza. Le segnalazioni sono aumentate a 3500 nel corso dell’ultimo anno.

Questo sta a significare che il monitoraggio dell’intelligenza artificiale (AI) di Facebook, avvisa le locali unità di soccorso, di circa 10 segnalazioni al giorno. Questi numeri non includono però l’Europa, dove il servizio non è ancora presente.

L’AI funziona monitorando quello che un utente scrive online e come rispondono i contatti. Ad esempio, se qualcuno visiona una diretta Facebook, l’intelligenza artificiale rileverà il tono delle risposte delle persone.

Se si rilevano risposte del tipo ‘per favore non farlo’ o ‘ci teniamo davvero a te’ o altri tipi di segnali che possano far pensare che qualcuno sia in pericolo o tenti il suicidio, i membri dello staff Facebook avvisano subito la polizia locale. Interviene anche l’AI stessa, ad esempio per cercare di identificare la posizione della persona in pericolo, così da poterla comunicare tempestivamente alle autorità.

Negli USA la chiamata vien di solito inoltrata al centro 911 più vicino alla persona in pericolo.

 

L’analisi dell’AI è controllata in modo adeguato?

Secondo Mason Marks, medico e ricercatore forense a Yale, non è una sorpresa che Facebook utilizzi questo tipo di intelligenza artificiale. A quanto sembra dall’introduzione dei video in diretta, Facebook ha avuto seri problemi per quanto riguarda le persone che tentano il suicidio. L’azienda sembra tenere molto all’argomento, avendo la possibilità di controllare i video in diretta, magari trasmessi dalle persone che assistono all’accaduto.

Non sappiamo ancora con certezza quanto questo sistema funzioni e quanti dei 3500 casi di segnalazione, siano stati poi delle vere emergenze. L’azienda non ha infatti trasmesso nessun tipo di dato ufficiale riguardante l’analisi dell’AI.

Scondo Marks il controllo di questo sistema di AI è molto importante, in quanto questo algoritmo ha il potere di far scattare una chiamata della polizia. Deve quindi essere applicato in modo metodico e trasparente, e con molta cautela. Questo per non creare allarmismi e inutili dispendi di energia e tempo da parte delle forse dell’ordine.

 

Sviluppata insieme ad un team di esperti in salute mentale

Per Davis invece, rivelare troppi dettagli sull’algoritmo sarebbe controproducente, in quanto avere troppe informazioni, potrebbe consentire alle persone di giocare con il sistema.

Davis afferma che l’AI è stata sviluppata e viene monitorata a stretto contatto con professionisti nel settore della salute mentale. Il team lavora con esperti della prevenzione per i suicidi per garantire che il lavoro sia svolto in maniera “etica, sensibile e premurosa”.

Davis informa inoltre che stanno sviluppando l’AI in modo che possa intervenire non solo per i casi di suicidio, ma anche di interazioni inappropriate tra adulti e minori.

Secondo il prof. Ryan Calo, co-direttore del Tech Policy Lab di Washington, lo sviluppo di questi tipi di AI e del modo in cui controllano i social, predice come in futuro le nuove tecnologie si trasformano gradualmente in forze dell’ordine. Avremmo la possibilità di prevenire o indagare su questioni terribili come suicidio, pornografia e perfino terrorismo. Si potrebbero prevenire o sventare crimini più semplici come la rappresaglia di una gang o una rapina. In fondo a volte le forze dell’ordine visionano i profili di ricercati o indiziati, quindi perché non analizzarli direttamente tramite AI?