In caso di emergenza, ChatGPT non è un buon medico

Date:

Share post:

L’intelligenza artificiale generativa come ChatGPT è oggi uno degli strumenti più discussi in ambito medico, ma uno studio condotto dall’Università della California ha evidenziato potenziali rischi nell’impiego di questi modelli di AI nelle situazioni di emergenza. Gli esperti hanno infatti rilevato che ChatGPT, se impiegato nei reparti di pronto soccorso, tende a prescrivere esami e trattamenti in misura superiore a quanto necessario, rischiando di aumentare i costi e complicare la gestione dei pazienti.

In particolare, lo studio ha analizzato oltre 250.000 casi in cui ChatGPT-4 e il suo predecessore, ChatGPT-3.5, sono stati confrontati con le decisioni dei medici nei pronto soccorso. In un ambiente in cui ogni minuto conta, l’accuratezza delle diagnosi e delle raccomandazioni è essenziale: qui, l’intelligenza artificiale si è dimostrata più conservativa rispetto ai medici, con una precisione ridotta dell’8% per ChatGPT-4 e del 24% per ChatGPT-3.5. Questa tendenza si traduce in una frequente indicazione di test diagnostici, antibiotici e perfino ricoveri non sempre necessari, un approccio che nei casi di emergenza può causare danni ai pazienti, ridurre le risorse disponibili e portare a un aumento dei costi per il sistema sanitario.

Il principale problema risiede nel modo in cui questi modelli sono addestrati: ChatGPT basa le sue risposte su informazioni estratte da internet, dove è spesso consigliato “consultare un medico” o “approfondire con esami” per garantire sicurezza generale. Sebbene questa cautela possa essere utile in situazioni non critiche, nel contesto dell’emergenza medica tale approccio non è sempre appropriato, poiché l’eccesso di prudenza può portare a una gestione inefficace.

Chris Williams, a capo dello studio, sottolinea infatti l’importanza di non considerare l’AI come un sostituto dei professionisti, specie nei reparti di emergenza. Secondo Williams, è fondamentale che l’intelligenza artificiale supporti i medici senza sostituirsi a loro, riducendo il margine di errore ma senza rallentare il processo decisionale. Oggi ChatGPT può rivelarsi utile per rispondere a domande generali, stilare documenti medici e monitorare alcuni parametri, ma resta inadeguato per la gestione di pazienti in situazioni critiche.

I risultati di questa ricerca sono stati pubblicati su Nature Communications e rappresentano un avviso per la comunità medica affinché utilizzi i modelli di AI come strumenti di supporto, e non come risorse indipendenti.

Foto di Tung Nguyen da Pixabay

Federica Vitale
Federica Vitalehttps://federicavitale.com
Ho studiato Shakespeare all'Università e mi ritrovo a scrivere di tecnologia, smartphone, robot e accessori hi-tech da anni! La SEO? Per me è maschile, ma la rispetto ugualmente. Quando si suol dire "Sappiamo ciò che siamo ma non quello che potremmo essere" (Amleto, l'atto indovinatelo voi!)

Related articles

Recensione Shark Detect Pro: aspirapolvere di qualità con autosvuotamento

Shark Detect Pro è il nome della nuova gamma di scope elettriche intelligenti di Shark, azienda che nel corso degli...

Vischio: non solo tradizione e baci ma anche salute

Tra le tante, tantissime, tradizioni del periodo natalizio c'è quella del vischio. Si parla di una tradizione secolare...

Cosa succede nell’oceano quando due cicloni si scontrano?

Quando due cicloni tropicali si scontrano, si creano effetti complessi e straordinari sia nell’atmosfera sia nell’oceano. Un caso...

Videogiochi open-world: una via verso il relax e il benessere mentale

I videogiochi open-world, ottenuti dalla libertà di esplorare vasti ambienti senza rigidi vincoli narrativi, stanno guadagnandosi il riconoscimento...