L’intelligenza artificiale promette di diagnosticare in modo esperto le malattie in immagini e scansioni mediche. Tuttavia, uno sguardo ravvicinato ai dati utilizzati per addestrare algoritmi per la diagnosi delle condizioni oculari suggerisce che questi nuovi potenti strumenti possono perpetuare le disuguaglianze di salute.
Un team di ricercatori nel Regno Unito ha analizzato 94 set di dati, con più di 500.000 immagini, comunemente utilizzati per addestrare algoritmi di intelligenza artificiale per individuare le malattie degli occhi. Hanno scoperto che quasi tutti i dati provenivano da pazienti in Nord America, Europa e Cina. Solo quattro set di dati provenivano dall’Asia meridionale, due dal Sud America e uno dall’Africa; nessuno veniva dall’Oceania.
La disparità nella fonte di queste immagini oculari significa che gli algoritmi di esame oculistico AI sono meno sicuri che funzionino bene per i gruppi razziali dei paesi sottorappresentati, afferma Xiaoxuan Liu, un oftalmologo e ricercatore presso l’Università di Birmingham. “Anche se ci sono cambiamenti molto sottili nella malattia in alcune popolazioni, l’IA può fallire”, riferisce.
L’American Association of Ophthalmologists ha mostrato entusiasmo per gli strumenti di intelligenza artificiale, che promettono di aiutare a migliorare gli standard di cura. Ma Liu dice che i medici potrebbero essere riluttanti a usare tali strumenti per le minoranze razziali se scoprono che sono stati costruiti studiando prevalentemente pazienti bianchi.
I ricercatori hanno trovato anche altri problemi nei dati. Molti set di dati non includevano dati demografici chiave, come età, sesso e razza, rendendo difficile valutare se sono di parte in altri modi. I set di dati tendevano anche ad essere stati creati solo su una manciata di malattie: glaucoma, retinopatia diabetica e degenerazione maculare legata all’età. Quarantasei set di dati che erano stati utilizzati per addestrare algoritmi non hanno reso i dati disponibili.
Negli ultimi anni la Food and Drug Administration statunitense ha approvato diversi prodotti per l’imaging AI, inclusi due strumenti AI per l’oftalmologia. Liu afferma che le aziende dietro questi algoritmi in genere non forniscono dettagli su come sono stati addestrati. Lei e i suoi coautori chiedono alle autorità di regolamentazione di considerare la diversità dei dati di formazione quando esaminano gli strumenti di intelligenza artificiale.
Il bias riscontrato nei set di dati delle immagini degli occhi significa che gli algoritmi addestrati su quei dati hanno meno probabilità di funzionare correttamente in Africa, America Latina o Sud-Est asiatico. Ciò minerebbe uno dei grandi presunti vantaggi della diagnosi di intelligenza artificiale: il suo potenziale per portare competenze mediche automatizzate nelle aree più povere dove è carente.
Amit Kaushal, assistente professore di medicina presso la Stanford University, faceva parte di un team che ha analizzato 74 studi che coinvolgevano usi medici dell’IA, 56 dei quali utilizzavano dati di pazienti statunitensi. Hanno scoperto che la maggior parte dei dati statunitensi proveniva da tre stati: California (22), New York (15) e Massachusetts (14).
“Quando i sottogruppi della popolazione vengono sistematicamente esclusi dai dati di addestramento dell’IA, gli algoritmi dell’IA tenderanno a dare risultati peggiori per quei gruppi esclusi”, afferma Kaushal. “I problemi che devono affrontare le popolazioni sottorappresentate potrebbero non essere nemmeno studiati dai ricercatori di IA a causa della mancanza di dati disponibili”.
Secondo Kaushal che la soluzione è rendere i ricercatori e i medici di intelligenza artificiale consapevoli del problema, in modo che cerchino set di dati più diversificati. “Dobbiamo creare un’infrastruttura tecnica che consenta l’accesso a diversi dati per la ricerca sull’intelligenza artificiale e un ambiente normativo che supporti e protegga l’uso di questi dati da parte della ricerca”, afferma.
Vikash Gupta, ricercatore presso la Mayo Clinic in Florida che lavora sull’uso dell’IA in radiologia, afferma che la semplice aggiunta di dati più diversificati potrebbe eliminare i pregiudizi. “Al momento è difficile dire come risolvere questo problema”, afferma.
In alcune situazioni, tuttavia, Gupta afferma che potrebbe essere utile per un algoritmo concentrarsi su un sottoinsieme di una popolazione, ad esempio quando si diagnostica una malattia che colpisce in modo sproporzionato quel gruppo.
Liu, l’oftalmologa, afferma di sperare di vedere una maggiore diversità nei dati di addestramento dell’IA medica man mano che la tecnologia diventerà più ampiamente disponibile. “Dieci anni dopo, quando usiamo l’IA per diagnosticare una malattia, se ho un paziente dalla pelle più scura di fronte a me, non voglio dire ‘Mi dispiace, ma devo darti trattamento diverso, perché questo non funziona per te”, ha riferito.
La depressione è un disturbo complesso che coinvolge fattori biologici, psicologici e sociali. Negli ultimi anni, la ricerca neuroscientifica ha…
Nelle notti intorno al 9 dicembre, strane luci sono apparse nel cielo portoghese, suscitando perplessità tra residenti ed esperti. Le…
La dislessia è un disturbo specifico dell'apprendimento che colpisce milioni di persone in tutto il mondo. Nonostante la sua natura…
United Airlines è diventata la prima grande compagnia aerea a integrare la tecnologia AirTag di Apple per il monitoraggio e…
Nonostante Apple abbia recentemente lanciato sul mercato due nuovi modelli di AirPods, lo sviluppo delle nuove generazioni non accenna a…
La voce interiore, quel dialogo silenzioso che accompagna molte persone durante la giornata, è spesso considerata una caratteristica universale dell’esperienza…