In caso di emergenza, ChatGPT non è un buon medico

Date:

Share post:

L’intelligenza artificiale generativa come ChatGPT è oggi uno degli strumenti più discussi in ambito medico, ma uno studio condotto dall’Università della California ha evidenziato potenziali rischi nell’impiego di questi modelli di AI nelle situazioni di emergenza. Gli esperti hanno infatti rilevato che ChatGPT, se impiegato nei reparti di pronto soccorso, tende a prescrivere esami e trattamenti in misura superiore a quanto necessario, rischiando di aumentare i costi e complicare la gestione dei pazienti.

In particolare, lo studio ha analizzato oltre 250.000 casi in cui ChatGPT-4 e il suo predecessore, ChatGPT-3.5, sono stati confrontati con le decisioni dei medici nei pronto soccorso. In un ambiente in cui ogni minuto conta, l’accuratezza delle diagnosi e delle raccomandazioni è essenziale: qui, l’intelligenza artificiale si è dimostrata più conservativa rispetto ai medici, con una precisione ridotta dell’8% per ChatGPT-4 e del 24% per ChatGPT-3.5. Questa tendenza si traduce in una frequente indicazione di test diagnostici, antibiotici e perfino ricoveri non sempre necessari, un approccio che nei casi di emergenza può causare danni ai pazienti, ridurre le risorse disponibili e portare a un aumento dei costi per il sistema sanitario.

Il principale problema risiede nel modo in cui questi modelli sono addestrati: ChatGPT basa le sue risposte su informazioni estratte da internet, dove è spesso consigliato “consultare un medico” o “approfondire con esami” per garantire sicurezza generale. Sebbene questa cautela possa essere utile in situazioni non critiche, nel contesto dell’emergenza medica tale approccio non è sempre appropriato, poiché l’eccesso di prudenza può portare a una gestione inefficace.

Chris Williams, a capo dello studio, sottolinea infatti l’importanza di non considerare l’AI come un sostituto dei professionisti, specie nei reparti di emergenza. Secondo Williams, è fondamentale che l’intelligenza artificiale supporti i medici senza sostituirsi a loro, riducendo il margine di errore ma senza rallentare il processo decisionale. Oggi ChatGPT può rivelarsi utile per rispondere a domande generali, stilare documenti medici e monitorare alcuni parametri, ma resta inadeguato per la gestione di pazienti in situazioni critiche.

I risultati di questa ricerca sono stati pubblicati su Nature Communications e rappresentano un avviso per la comunità medica affinché utilizzi i modelli di AI come strumenti di supporto, e non come risorse indipendenti.

Foto di Tung Nguyen da Pixabay

Federica Vitale
Federica Vitalehttps://federicavitale.com
Ho studiato Shakespeare all'Università e mi ritrovo a scrivere di tecnologia, smartphone, robot e accessori hi-tech da anni! La SEO? Per me è maschile, ma la rispetto ugualmente. Quando si suol dire "Sappiamo ciò che siamo ma non quello che potremmo essere" (Amleto, l'atto indovinatelo voi!)

Related articles

WhatsApp introduce gli avvisi per gli aggiornamenti di stato

WhatsApp continua a portare in campo funzioni riguardanti gli aggiornamenti di stato. Scovate nell'ultima beta dell'app per dispositivi...

Elezioni americane: come gli astronauti americani votano dallo spazio

Gli astronauti americani, anche quando sono in orbita sulla Stazione Spaziale Internazionale (ISS), non rinunciano al diritto di...

L’olio di palma e la Sclerosi Multipla: come una dieta ricca di grassi saturi può peggiorare i sintomi

L'olio di palma è da tempo oggetto di discussioni per i suoi effetti sulla salute. È ampiamente utilizzato...

Recensione Asus Zenbook S 14: notebook duraturo con Intel Lunar Lake

Asus Zenbook S 14 (modello UX5406SA) è un notebook destinato a durare per molti anni, un dispositivo che...