Sigle a raffica nei referti, farmaci misteriosi, analisi incomprensibili: già molti, quando si tratta di salute, chiedono aiuto all’intelligenza artificiale (AI). Ora però l’ultima mossa di OpenAI rischia di mandare definitivamente in pensione il tanto detestato (soprattutto dai ‘camici bianchi’) dottor Google. La società proprietaria di ChatGPT ha infatti lanciato ChatGPT Salute, che ambisce a diventare una sorta di assistente personale capace di spiegare, riordinare e rendere comprensibili informazioni mediche complesse.
Ma che impatto avrà sull’autorevolezza dei medici in carne e ossa e sul rapporto, già fragile, con i pazienti? LaPresse lo ha chiesto a Francesco Branda, ricercatore dell’Università Campus Bio-Medico.
Il progetto: affiancare i professionisti della salute senza sostituirli
OpenAI presenta l’iniziativa come “un’esperienza dedicata che integra in modo sicuro le informazioni sanitarie con l’intelligenza di ChatGPT, per aiutare a sentirsi più informati, preparati e sicuri nella gestione della propria salute. La salute – sottolinea l’azienda di Sam Altman – è già uno degli ambiti in cui ChatGPT viene utilizzato più spesso, con centinaia di milioni di persone che ogni settimana pongono domande su salute e benessere”.
“ChatGPT Salute – si legge sul sito di OpenAI – si basa sui solidi controlli di privacy, sicurezza e gestione dei dati, con ulteriori livelli di protezione progettati specificamente per la salute, inclusi sistemi di crittografia dedicati e meccanismi di isolamento per mantenere le conversazioni sanitarie private e separate”.
“Puoi collegare in modo sicuro le cartelle cliniche e le app di benessere, così da basare le conversazioni sulle informazioni sanitarie personali e ottenere risposte più mirate e utili. Progettato in stretta collaborazione con i medici, ChatGPT Salute svolge un ruolo più attivo nella comprensione e nella gestione della salute e del benessere, affiancando le cure dei professionisti sanitari, senza sostituirle”. Ma sarà davvero così?
ChatGPT risponde a un bisogno reale
Tutto sommato “ChatGPT salute si presenta come uno strumento di supporto alla comprensione e all’organizzazione delle informazioni sanitarie personali. Il suo obiettivo dichiarato non è formulare diagnosi o sostituire il giudizio clinico – afferma Branda – ma aiutare le persone a orientarsi tra dati spesso frammentati: referti di laboratorio, note cliniche, piani terapeutici, informazioni provenienti da app di monitoraggio o dispositivi indossabili. In altre parole, promette di trasformare dati grezzi in un racconto più leggibile, favorendo una partecipazione più consapevole alle decisioni sulla propria salute”.
Questa promessa “intercetta un bisogno reale. La medicina contemporanea produce enormi quantità di informazioni, ma non sempre riesce a renderle comprensibili. Molti pazienti escono dagli ambulatori con referti in mano e più domande che risposte. In questo vuoto – riflette il ricercatore – strumenti come ChatGPT Salute offrono una forma di alfabetizzazione sanitaria avanzata, permettendo alle persone di arrivare agli incontri clinici meglio preparate, più informate e, in alcuni casi, meno disorientate”.
Un punto di svolta nell’accesso alle informazioni sulla salute
Per Branda si tratta di “un punto di svolta culturale e cognitivo nel modo in cui ciascuno di noi – pazienti, medici, familiari – si avvicina alle informazioni sulla salute. L’idea di avere un’interfaccia in grado di tradurre termini medici complessi, aiutare a interpretare risultati di esami o fornire suggerimenti basati sui dati sanitari personali può sembrare, in prima istanza, un enorme vantaggio. E in effetti lo è, ma non senza complicazioni profonde che riguardano fiducia, autonomia e natura del giudizio umano”.
La premessa è che “i sistemi intelligenti possono aiutare nella diagnosi precoce, nella personalizzazione delle terapie e nella gestione efficiente dei percorsi di cura, portando benefici concreti ai pazienti e alleggerendo parte del carico sui professionisti sanitari. Tuttavia, l’adozione responsabile di queste tecnologie dipende da aspetti di trasparenza ed etica, cruciali altrimenti la fiducia dei pazienti e dei clinici può vacillare o addirittura spezzarsi”.
Quanto ne sa davvero l’AI
Uno dei nodi fondamentali riguarda proprio il concetto di fiducia. “Molte persone, quando ricevono informazioni mediche generate da un’AI, tendono a valutarle con lo stesso peso che darebbero a un parere professionale, anche quando la qualità delle risposte non è sempre elevata o accurata. Utenti non esperti spesso non distinguono correttamente tra risposte generate da professionisti sanitari e risposte prodotte da modelli linguistici, e attribuiscono a queste ultime un livello di autorevolezza che non sempre è giustificato dai fatti clinici”, segnala il ricercatore.
Questo fenomeno non è banale. “ChatGPT Salute può rendere le informazioni più accessibili, ma se non è accompagnato da un’adeguata educazione cognitiva e da strumenti critici, il rischio è che l’utente si affidi passivamente a spiegazioni che sembrano convincenti, ma non sono clinicamente corrette o contestualizzate”.
In medicina contestualizzare non significa solo “tradurre parole difficili”, ma leggere i dati alla luce di una storia personale, un passato clinico, valori individuali e preferenze. Il giudizio clinico del medico in carne e ossa, “che un algoritmo non può possedere né sostituire completamente”.
Il rischio di incappare in ‘allucinazioni’
Un altro problema, per Branda, riguarda l’affidabilità e sicurezza delle informazioni. “Chatbot anche avanzati, se usati senza supervisione, possono dare risposte errate o fuorvianti, specialmente quando si tratta di diagnosi o suggerimenti terapeutici specifici. Queste ‘allucinazioni’ – ovvero risposte plausibili, ma false – possono derivare da lacune nei dati di addestramento o da limiti intrinseci dei modelli linguistici, e rappresentano un pericolo reale, se non vengono gestite con cautela”, avverte l’esperto.
Ecco perché l’AI “deve essere affidabile e spiegabile. Non è un vezzo tecnico, ma una condizione per creare fiducia e comprensione: se il medico o il paziente non capiscono perché un algoritmo propone una certa interpretazione, difficilmente potranno accettarla con piena consapevolezza. Si tratta di un punto cruciale – insiste -perché l’esperienza concreta ci mostra che la fiducia nell’IA non emerge automaticamente con la sua capacità computazionale: al contrario, essa si costruisce quando i sistemi sono trasparenti, regolati da standard etici chiari e integrati in processi che mantengono l’essere umano come responsabile ultimo delle decisioni”.
C’è poi un altro tema: l’elemento umano. L’ascolto, l’empatia, la relazione di cura per i medici “non è un optional, ma un cardine insostituibile del percorso di guarigione”.
“Strumenti come ChatGPT Salute offrono qualcosa di nuovo: una lente attraverso cui possiamo vedere e comprendere meglio i nostri dati sanitari. Ma questa lente non può essere semplicemente più grande o più veloce: deve essere anche etica, critica e umana. Senza queste dimensioni, rischiamo che l’AI agisca come una scorciatoia cognitiva, privandoci del tempo necessario per riflettere, interrogare e discutere le nostre opzioni di cura”, ammonisce lo scienziato.
La vera sfida per Branda “non è togliere l’essere umano dai processi decisionali, ma piuttosto reinventarli in modo che l’AI sia uno strumento di potenziamento, non di delega. In questo senso, ChatGPT Salute non è solo un prodotto: è uno specchio delle nostre aspettative, paure e speranze riguardo all’intelligenza artificiale nella salute”. La rivoluzione è appena iniziata.

