In caso di emergenza, ChatGPT non è un buon medico

Date:

Share post:

L’intelligenza artificiale generativa come ChatGPT è oggi uno degli strumenti più discussi in ambito medico, ma uno studio condotto dall’Università della California ha evidenziato potenziali rischi nell’impiego di questi modelli di AI nelle situazioni di emergenza. Gli esperti hanno infatti rilevato che ChatGPT, se impiegato nei reparti di pronto soccorso, tende a prescrivere esami e trattamenti in misura superiore a quanto necessario, rischiando di aumentare i costi e complicare la gestione dei pazienti.

In particolare, lo studio ha analizzato oltre 250.000 casi in cui ChatGPT-4 e il suo predecessore, ChatGPT-3.5, sono stati confrontati con le decisioni dei medici nei pronto soccorso. In un ambiente in cui ogni minuto conta, l’accuratezza delle diagnosi e delle raccomandazioni è essenziale: qui, l’intelligenza artificiale si è dimostrata più conservativa rispetto ai medici, con una precisione ridotta dell’8% per ChatGPT-4 e del 24% per ChatGPT-3.5. Questa tendenza si traduce in una frequente indicazione di test diagnostici, antibiotici e perfino ricoveri non sempre necessari, un approccio che nei casi di emergenza può causare danni ai pazienti, ridurre le risorse disponibili e portare a un aumento dei costi per il sistema sanitario.

Il principale problema risiede nel modo in cui questi modelli sono addestrati: ChatGPT basa le sue risposte su informazioni estratte da internet, dove è spesso consigliato “consultare un medico” o “approfondire con esami” per garantire sicurezza generale. Sebbene questa cautela possa essere utile in situazioni non critiche, nel contesto dell’emergenza medica tale approccio non è sempre appropriato, poiché l’eccesso di prudenza può portare a una gestione inefficace.

Chris Williams, a capo dello studio, sottolinea infatti l’importanza di non considerare l’AI come un sostituto dei professionisti, specie nei reparti di emergenza. Secondo Williams, è fondamentale che l’intelligenza artificiale supporti i medici senza sostituirsi a loro, riducendo il margine di errore ma senza rallentare il processo decisionale. Oggi ChatGPT può rivelarsi utile per rispondere a domande generali, stilare documenti medici e monitorare alcuni parametri, ma resta inadeguato per la gestione di pazienti in situazioni critiche.

I risultati di questa ricerca sono stati pubblicati su Nature Communications e rappresentano un avviso per la comunità medica affinché utilizzi i modelli di AI come strumenti di supporto, e non come risorse indipendenti.

Foto di Tung Nguyen da Pixabay

Federica Vitale
Federica Vitalehttps://federicavitale.com
Ho studiato Shakespeare all'Università e mi ritrovo a scrivere di tecnologia, smartphone, robot e accessori hi-tech da anni! La SEO? Per me è maschile, ma la rispetto ugualmente. Quando si suol dire "Sappiamo ciò che siamo ma non quello che potremmo essere" (Amleto, l'atto indovinatelo voi!)

Related articles

Encelado, la luna di Saturno rivela molecole organiche mai viste: nuova svolta nella ricerca della vita

Encelado, una delle lune più affascinanti di Saturno, torna al centro dell’attenzione scientifica grazie a una scoperta sorprendente:...

Apple annuncia la promozione del Black Friday: scopriamola insieme

Il Black Friday è una delle poche occasioni nel corso dell'anno in cui Apple decide di proporre promozioni...

Il sorprendente legame tra piombo ed evoluzione umana: cosa rivela la nuova ricerca

Per anni il piombo è stato considerato esclusivamente una minaccia per la salute: tossico, persistente nell’ambiente e responsabile...

Nuovo farmaco anti-Parkinson: accordo miliardario Merck–Valo

La ricerca contro il morbo di Parkinson compie un passo significativo grazie a un accordo multimiliardario tra Merck...