Foto di Tung Nguyen da Pixabay
L’intelligenza artificiale generativa come ChatGPT è oggi uno degli strumenti più discussi in ambito medico, ma uno studio condotto dall’Università della California ha evidenziato potenziali rischi nell’impiego di questi modelli di AI nelle situazioni di emergenza. Gli esperti hanno infatti rilevato che ChatGPT, se impiegato nei reparti di pronto soccorso, tende a prescrivere esami e trattamenti in misura superiore a quanto necessario, rischiando di aumentare i costi e complicare la gestione dei pazienti.
In particolare, lo studio ha analizzato oltre 250.000 casi in cui ChatGPT-4 e il suo predecessore, ChatGPT-3.5, sono stati confrontati con le decisioni dei medici nei pronto soccorso. In un ambiente in cui ogni minuto conta, l’accuratezza delle diagnosi e delle raccomandazioni è essenziale: qui, l’intelligenza artificiale si è dimostrata più conservativa rispetto ai medici, con una precisione ridotta dell’8% per ChatGPT-4 e del 24% per ChatGPT-3.5. Questa tendenza si traduce in una frequente indicazione di test diagnostici, antibiotici e perfino ricoveri non sempre necessari, un approccio che nei casi di emergenza può causare danni ai pazienti, ridurre le risorse disponibili e portare a un aumento dei costi per il sistema sanitario.
Il principale problema risiede nel modo in cui questi modelli sono addestrati: ChatGPT basa le sue risposte su informazioni estratte da internet, dove è spesso consigliato “consultare un medico” o “approfondire con esami” per garantire sicurezza generale. Sebbene questa cautela possa essere utile in situazioni non critiche, nel contesto dell’emergenza medica tale approccio non è sempre appropriato, poiché l’eccesso di prudenza può portare a una gestione inefficace.
Chris Williams, a capo dello studio, sottolinea infatti l’importanza di non considerare l’AI come un sostituto dei professionisti, specie nei reparti di emergenza. Secondo Williams, è fondamentale che l’intelligenza artificiale supporti i medici senza sostituirsi a loro, riducendo il margine di errore ma senza rallentare il processo decisionale. Oggi ChatGPT può rivelarsi utile per rispondere a domande generali, stilare documenti medici e monitorare alcuni parametri, ma resta inadeguato per la gestione di pazienti in situazioni critiche.
I risultati di questa ricerca sono stati pubblicati su Nature Communications e rappresentano un avviso per la comunità medica affinché utilizzi i modelli di AI come strumenti di supporto, e non come risorse indipendenti.
Foto di Tung Nguyen da Pixabay
Nel cuore dell’Irlanda orientale, a circa 50 km da Dublino, sorge Newgrange, un maestoso tumulo funerario costruito intorno al 3100…
L’ipotesi rivoluzionaria della “Quantum Memory Matrix” La fisica moderna potrebbe essere sull’orlo di una nuova svolta. Florian Neukart, professore e…
TikTok è diventato un punto di riferimento per milioni di adolescenti in cerca di informazioni e risposte. Tra i contenuti…
L’esercizio fisico è da tempo considerato uno dei modi più efficaci per mantenere il cervello sano e rallentare il declino…
Un recente studio pubblicato su PNAS rivela che gli smartwatch possono rilevare i primi segnali di malattia ore prima che…
Siete tra coloro che stanno aspettando il lancio di un nuovo modello di AirPods Pro? Ci sono buone notizie per…