Nel 2016 a Dallas, in una notte d’estate, un robot che manipolava bombe fece la storia della tecnologia. Gli agenti di polizia vi avevano collegato circa mezzo chilo di esplosivo C-4, avevano guidato il dispositivo fino a un muro vicino a un tiratore attivo e avevano fatto esplodere la carica. Nell’esplosione l’assalitore, Micah Xavier Johnson, divenne la prima persona negli Stati Uniti a morire per mano di un robot della polizia. Questo ha creato un curioso precedente, per cui negli Stati Uniti si tende a diffidare dai robot e ad associarli a una serie di pregiudizi.
In seguito, il capo della polizia di Dallas, David Brown, ha ritenuto valida la decisione. Prima che il robot attaccasse, il signor Johnson aveva sparato a cinque ufficiali uccidendoli, ne aveva feriti altri nove e aveva colpito due civili, e le trattative si erano arenate. Brown sostiene che, a quel punto, era più sicuro inviare il robot e risparmiare la vita di altri agenti.
Ma alcuni ricercatori nel campo della robotica erano preoccupati. I robot “Bomb Squad” sono in commercio per smaltire le bombe in sicurezza, non per consegnarle ai bersagli. Occorre ricordare, in proposito, che nel 2018 gli agenti di polizia di Dixmont, nel Maine, posero fine a una sparatoria in modo simile. La loro stessa professione aveva fornito agli agenti una nuova arma letale che, già al suo primo utilizzo, aveva ucciso un uomo di colore.
Nel 2017 Ayanna Howard, ricercatrice nel campo robotica allo Georgia Tech, e Jason Borenstein, un collega della scuola di politica pubblica dell’università, scrissero un articolo intitolato “The Ugly Truth About Ourselves and Our Robot Creations”, che apparve sulla rivista Science and Engineering Ethics. Nell’articolo, gli studiosi sottolineano come elemento chiave proprio le origini etniche della vittima, risaltando così una vena di pregiudizio razziale che avrebbe in seguito dato adito a diverse polemiche.
Come quasi tutti i robot della polizia in uso oggi, il dispositivo di Dallas era una semplice piattaforma telecomandata; oggi, nei laboratori di tutto il mondo si stanno sviluppando robot più sofisticati, che utilizzeranno l’intelligenza artificiale per compiere una grande varietà di azioni. Un robot con algoritmi per il riconoscimento facciale, o per prevedere le azioni delle persone, o per decidere da solo di sparare proiettili “non letali” è un robot che molti ricercatori trovano problematico. Il motivo è semplice: molti degli algoritmi odierni sono carichi di pregiudizi contro le persone di colore e , in genere, contro tutte le persone diverse dai progettisti bianchi, maschi, benestanti e abili della maggior parte dei sistemi computerizzati e robotici.
Una possibile soluzione a questo problema sta nel manifesto “No justice, no robot”, firmato da quasi 200 scienziati neri nel campo dell’informatica e da oltre 400 alleati (studiosi neri di altri campi o persone non nere che lavorano in aree correlate). Il documento descrive l’esperienza personale di razzismo e pregiudizi strutturali e istituzionali che gli studiosi di colore hanno trovato profondamente radicati nella società, nelle reti professionali, nelle comunità di esperti e nelle industrie.
Ph. credits: Foto di Gerd Altmann da Pixabay
Blasphemous 2 è stato indiscutibilmente uno dei titoli più discussi ed apprezzati dell'intero panorama videoludico degli ultimi anni, un gioco capace…
Brutte notizie per chi sperava in un lancio "imminente" dei MacBook Air con display OLED. Stando ad un recente report…
Un nuovo studio rivela che le nanoplastiche, minuscole particelle di plastica di dimensioni inferiori a 0,001 millimetri, possono compromettere la…
Il ruolo della madre nel proteggere il bambino dal Disturbo da Stress Post-Traumatico (PTSD) è di fondamentale importanza. Diversi studi…
Il rover Perseverance della NASA ha individuato insolite macchie verdi su alcune rocce marziane, suggerendo che possano essere state in…
È ormai noto che l'attività fisica e lo stile di vita sedentario non dipendono solo da fattori ambientali, come la…