AI e medicina, il futuro della salute e dei giovani dottori, tra dubbi e autodiagnosi

AI e medicina, il futuro della salute e dei giovani dottori, tra dubbi e autodiagnosi
(Photo by Zhao Wenyu/China News Service/VCG via AP )

Dal nuovo sapere alla responsabilità, viaggio tra le possibilità e le sfide del dottor AI.

Sono già numerose le declinazioni dell’intelligenza artificiale (AI) studiate per medici e pazienti. Mentre GPT-Rosalind di OpenAI punta ad accelerare la ricerca nelle scienze della vita, altri strumenti stanno già modificando il rapporto delle persone con i problemi di salute e non sempre in modo positivo, come ha mostrato il caso di Joseph Neal Riley, che si è affidato a Perplexity rinunciando ai suggerimenti dell’oncologo finché non è stato troppo tardi. Ma davvero finiremo tutti nelle mani del ‘dottor AI’? A rispondere a LaSalute di LaPresse è Francesco Branda, ricercatore dell’Università Campus Bio-Medico e socio della Società europea per l’etica e la politica dell’intelligenza artificiale (Sepai).

Il caso e i rischi dell’autodiagnosi

A riportare il caso di Joseph Neal Riley, un dottorato in neuroscienze e numerose pubblicazioni accademiche, è stato il ‘Corriere della sera’. L’uomo – colpito da un tumore al polmone, una malattia renale e una leucemia linfatica cronica – dopo aver trattato le prime due patologie con successo si è poi affidato al chatbot convincendosi di avere un problema per il quale le terapie prescritte dall’oncologo erano controindicate. Un’autodiagnosi che si è rivelata una trappola, ritardando le cure e portando il paziente al decesso.

E allora? Se avete in mente un robot in camice bianco, non è l’idea di Branda, che al posto di “una figura autonoma che sostituisce il medico”, pensa a “una componente strutturale del processo clinico, una sorta di ambiente cognitivo dentro cui si esercita la medicina. Questa distinzione è importante, perché spesso il dibattito pubblico oscilla tra due estremi semplificati: da un lato l’idea di una sostituzione del medico da parte della macchina, dall’altro quella di un semplice strumento neutro, come un stetoscopio digitale più sofisticato. In realtà, l’AI non è né una figura autonoma né uno strumento passivo, è un sistema che ridefinisce il modo in cui si costruisce il ragionamento clinico”, puntualizza.

La medicina del futuro e l’AI

“L’AI non pensa come un medico, ma riorganizza il campo delle possibilità cliniche: evidenzia correlazioni invisibili, suggerisce ipotesi probabilistiche, riduce lo spazio dell’errore casuale, ma – avverte Branda – introduce nuove forme di errore sistemico. Qui emerge un punto critico spesso sottovalutato: l’AI non è epistemologicamente neutrale. Ogni modello è costruito su dati storici, che riflettono disuguaglianze, bias diagnostici, differenze di accesso alle cure e pratiche cliniche non uniformi. Questo significa che il dottor AI non sarà semplicemente più o meno intelligente, ma porterà con sé una memoria statistica del sistema sanitario che lo ha generato”, dice Branda.

Il futuro “non è solo tecnologico, ma profondamente politico ed epistemologico: chi decide cosa è normale, cosa è rischioso, cosa è prioritario in medicina?”, si chiede il ricercatore.

Il dottor AI e i pazienti di domani

Come reagiranno i pazienti?  “Da un lato stanno sperimentando forme indirette di medicina algoritmica: sistemi di triage, diagnostica per immagini assistita da AI, algoritmi di predizione del rischio cardiovascolare o oncologico. In molti casi, l’accettazione è elevata perché l’intelligenza artificiale viene percepita come uno strumento che migliora la precisione e riduce l’incertezza. Dall’altro lato, però, la medicina non è mai stata unicamente un problema di accuratezza tecnica. È anche un sistema di attribuzione di senso, responsabilità e fiducia – sottolinea Branda – Il paziente non si limita a chiedere qual è la diagnosi corretta? Ma anche chi si assume la responsabilità di questa diagnosi? E a chi posso affidarmi in una situazione di vulnerabilità?”.

Il paradosso e la questione di fiducia

Come ormai sappiamo il rapporto medico-paziente è un motore potente. Ebbene, “l’AI è potenzialmente più precisa in molti compiti analitici, ma non è un soggetto morale. Non può essere destinataria di fiducia nel senso umano del termine, perché non risponde, non si espone, non si assume responsabilità. Questo crea una possibile frattura culturale: da un lato una fiducia funzionale nell’algoritmo (per la sua performance), dall’altro una fiducia esistenziale che rimane ancorata alla figura del medico”, riflette Branda. 

Insomma, è plausibile che “il paziente del futuro non si fidi dell’AI, ma di un sistema ibrido senza comprenderne pienamente la distribuzione interna delle responsabilità. C’è anche un rischio più sottile: la progressiva opacizzazione della decisione clinica. Se la raccomandazione deriva da una catena complessa di modelli, dati e inferenze, il paziente potrebbe percepire la medicina come più potente ma anche meno intelligibile. E la perdita di intelligibilità, nella medicina è sempre anche una perdita di controllo percepito”.

La formazione dei giovani medici

C’è poi un’altra questione: quella della formazione dei camici bianchi. “La trasformazione della formazione medica sarà probabilmente uno degli aspetti più profondi e meno discussi dell’introduzione dell’AI in sanità. Non si tratta semplicemente di aggiungere competenze digitali al curriculum, ma di ridefinire cosa significa formare un medico”.  

Storicamente, ci si è basati su tre pilastri: sapere, saper fare e saper decidere. L’intelligenza artificiale interviene su tutti e tre questi livelli. “Sul piano della conoscenza, l’AI rende obsoleta l’idea di una memoria enciclopedica individuale: nessun medico può competere con sistemi che aggiornano continuamente linee guida, letteratura e dati clinici in tempo reale. Questo non significa che la conoscenza diventi irrilevante, ma che cambia natura: da contenuto da memorizzare a struttura da interpretare”, segnala il ricercatore.

Sul piano del saper fare, l’AI introduce una forma di “esperienza simulata collettiva”: milioni di casi analizzati in modo aggregato diventano una fonte di apprendimento indiretta per il singolo medico. Questo riduce la dipendenza dal volume di casi personali, ma può anche indebolire la formazione intuitiva basata sulla pratica diretta. Ma è sul piano del giudizio clinico che per Branda la questione diventa più delicata. “Se l’AI propone continuamente raccomandazioni probabilisticamente ottimizzate, il rischio non è tanto l’errore attivo del medico, quanto la sua progressiva delega cognitiva. In altre parole, il problema non è che il medico sbagli contro l’AI, ma che smetta lentamente di sviluppare un giudizio indipendente”.

Resistere alle sirene dell’AI

Da qui nasce una delle sfide centrali: insegnare non solo a usare l’intelligenza artificiale, ma a resistere all’AI quando necessario. “Questo – chiarisce l’esperto – implica sviluppare una competenza che potremmo chiamare giudizio epistemico clinico: la capacità di valutare non solo il paziente, ma anche la qualità, i limiti e le assunzioni implicite del sistema che propone una diagnosi o una terapia”. Il medico del futuro non sarà meno competente, ma lo sarà in modo diverso: meno centrato sulla memorizzazione, più sulla capacità critica, meno sulla certezza, più sulla gestione dell’incertezza strutturata.

“C’è però un rischio culturale importante: se la formazione si limita a inseguire l’innovazione tecnologica senza interrogarsi sul suo impatto cognitivo, si rischia di formare medici altamente efficienti, ma progressivamente meno autonomi nel pensiero clinico”, conclude Branda.

© Riproduzione Riservata