In caso di emergenza, ChatGPT non è un buon medico

Date:

Share post:

L’intelligenza artificiale generativa come ChatGPT è oggi uno degli strumenti più discussi in ambito medico, ma uno studio condotto dall’Università della California ha evidenziato potenziali rischi nell’impiego di questi modelli di AI nelle situazioni di emergenza. Gli esperti hanno infatti rilevato che ChatGPT, se impiegato nei reparti di pronto soccorso, tende a prescrivere esami e trattamenti in misura superiore a quanto necessario, rischiando di aumentare i costi e complicare la gestione dei pazienti.

In particolare, lo studio ha analizzato oltre 250.000 casi in cui ChatGPT-4 e il suo predecessore, ChatGPT-3.5, sono stati confrontati con le decisioni dei medici nei pronto soccorso. In un ambiente in cui ogni minuto conta, l’accuratezza delle diagnosi e delle raccomandazioni è essenziale: qui, l’intelligenza artificiale si è dimostrata più conservativa rispetto ai medici, con una precisione ridotta dell’8% per ChatGPT-4 e del 24% per ChatGPT-3.5. Questa tendenza si traduce in una frequente indicazione di test diagnostici, antibiotici e perfino ricoveri non sempre necessari, un approccio che nei casi di emergenza può causare danni ai pazienti, ridurre le risorse disponibili e portare a un aumento dei costi per il sistema sanitario.

Il principale problema risiede nel modo in cui questi modelli sono addestrati: ChatGPT basa le sue risposte su informazioni estratte da internet, dove è spesso consigliato “consultare un medico” o “approfondire con esami” per garantire sicurezza generale. Sebbene questa cautela possa essere utile in situazioni non critiche, nel contesto dell’emergenza medica tale approccio non è sempre appropriato, poiché l’eccesso di prudenza può portare a una gestione inefficace.

Chris Williams, a capo dello studio, sottolinea infatti l’importanza di non considerare l’AI come un sostituto dei professionisti, specie nei reparti di emergenza. Secondo Williams, è fondamentale che l’intelligenza artificiale supporti i medici senza sostituirsi a loro, riducendo il margine di errore ma senza rallentare il processo decisionale. Oggi ChatGPT può rivelarsi utile per rispondere a domande generali, stilare documenti medici e monitorare alcuni parametri, ma resta inadeguato per la gestione di pazienti in situazioni critiche.

I risultati di questa ricerca sono stati pubblicati su Nature Communications e rappresentano un avviso per la comunità medica affinché utilizzi i modelli di AI come strumenti di supporto, e non come risorse indipendenti.

Foto di Tung Nguyen da Pixabay

Federica Vitale
Federica Vitalehttps://federicavitale.com
Ho studiato Shakespeare all'Università e mi ritrovo a scrivere di tecnologia, smartphone, robot e accessori hi-tech da anni! La SEO? Per me è maschile, ma la rispetto ugualmente. Quando si suol dire "Sappiamo ciò che siamo ma non quello che potremmo essere" (Amleto, l'atto indovinatelo voi!)

Related articles

WhatsApp: i temi personalizzati delle chat arrivano per tutti

Una novità attesa da tantissimo tempo è finalmente arrivata su WhatsApp! Dopo averli resi disponibili per una cerchia...

Depressione e salute fisica: come la mente influenza il corpo

La depressione non colpisce solo la mente, ma ha anche un impatto significativo sulla salute fisica. Studi scientifici...

La cioccolata calda riduce lo stress e migliora la salute vascolare

Bere cioccolata calda potrebbe essere un modo gustoso e naturale per proteggere il nostro organismo dagli effetti negativi...

Apple Intelligence arriva in Italia, ma quanto spazio occupa?

L'attenzione del pubblico è fortemente mirata verso Apple Intelligence, l'intelligenza artificiale secondo l'azienda di Cupertino dovrebbe davvero riservare non poche...