Nel 2016 a Dallas, in una notte d’estate, un robot che manipolava bombe fece la storia della tecnologia. Gli agenti di polizia vi avevano collegato circa mezzo chilo di esplosivo C-4, avevano guidato il dispositivo fino a un muro vicino a un tiratore attivo e avevano fatto esplodere la carica. Nell’esplosione l’assalitore, Micah Xavier Johnson, divenne la prima persona negli Stati Uniti a morire per mano di un robot della polizia. Questo ha creato un curioso precedente, per cui negli Stati Uniti si tende a diffidare dai robot e ad associarli a una serie di pregiudizi.
In seguito, il capo della polizia di Dallas, David Brown, ha ritenuto valida la decisione. Prima che il robot attaccasse, il signor Johnson aveva sparato a cinque ufficiali uccidendoli, ne aveva feriti altri nove e aveva colpito due civili, e le trattative si erano arenate. Brown sostiene che, a quel punto, era più sicuro inviare il robot e risparmiare la vita di altri agenti.
Ma alcuni ricercatori nel campo della robotica erano preoccupati. I robot “Bomb Squad” sono in commercio per smaltire le bombe in sicurezza, non per consegnarle ai bersagli. Occorre ricordare, in proposito, che nel 2018 gli agenti di polizia di Dixmont, nel Maine, posero fine a una sparatoria in modo simile. La loro stessa professione aveva fornito agli agenti una nuova arma letale che, già al suo primo utilizzo, aveva ucciso un uomo di colore.
Nel 2017 Ayanna Howard, ricercatrice nel campo robotica allo Georgia Tech, e Jason Borenstein, un collega della scuola di politica pubblica dell’università, scrissero un articolo intitolato “The Ugly Truth About Ourselves and Our Robot Creations”, che apparve sulla rivista Science and Engineering Ethics. Nell’articolo, gli studiosi sottolineano come elemento chiave proprio le origini etniche della vittima, risaltando così una vena di pregiudizio razziale che avrebbe in seguito dato adito a diverse polemiche.
Come quasi tutti i robot della polizia in uso oggi, il dispositivo di Dallas era una semplice piattaforma telecomandata; oggi, nei laboratori di tutto il mondo si stanno sviluppando robot più sofisticati, che utilizzeranno l’intelligenza artificiale per compiere una grande varietà di azioni. Un robot con algoritmi per il riconoscimento facciale, o per prevedere le azioni delle persone, o per decidere da solo di sparare proiettili “non letali” è un robot che molti ricercatori trovano problematico. Il motivo è semplice: molti degli algoritmi odierni sono carichi di pregiudizi contro le persone di colore e , in genere, contro tutte le persone diverse dai progettisti bianchi, maschi, benestanti e abili della maggior parte dei sistemi computerizzati e robotici.
Una possibile soluzione a questo problema sta nel manifesto “No justice, no robot”, firmato da quasi 200 scienziati neri nel campo dell’informatica e da oltre 400 alleati (studiosi neri di altri campi o persone non nere che lavorano in aree correlate). Il documento descrive l’esperienza personale di razzismo e pregiudizi strutturali e istituzionali che gli studiosi di colore hanno trovato profondamente radicati nella società, nelle reti professionali, nelle comunità di esperti e nelle industrie.
Ph. credits: Foto di Gerd Altmann da Pixabay
L'insonnia fatale familiare (IFF) è una malattia neurodegenerativa rara e letale che colpisce il sistema nervoso centrale. È caratterizzato dalla…
Il 2025 sarà l'anno degli iPhone 17. Apple prevede di lanciare ben 4 differenti modelli, uno base, uno Air e…
Shark Detect Pro è il nome della nuova gamma di scope elettriche intelligenti di Shark, azienda che nel corso degli anni si sta…
Tra le tante, tantissime, tradizioni del periodo natalizio c'è quella del vischio. Si parla di una tradizione secolare che al…
Quando due cicloni tropicali si scontrano, si creano effetti complessi e straordinari sia nell’atmosfera sia nell’oceano. Un caso emblematico è…
I videogiochi open-world, ottenuti dalla libertà di esplorare vasti ambienti senza rigidi vincoli narrativi, stanno guadagnandosi il riconoscimento non solo…