AI tra salute e difesa, le scelte di OpenAI e Anthropic e il ‘dilemma dati’

AI tra salute e difesa, le scelte di OpenAI e Anthropic e il ‘dilemma dati’
(AP Photo/Vadim Ghirda)

L’AI è “una tecnologia a doppio taglio”: le scelte di OpenAI e Anthropic e tutti i rischi per chi cede i suoi dati.

Mentre l’intelligenza artificiale (AI) sta entrando sempre più in settori come salute e farmaceutica, la guerra in Iran ha moltiplicato gli interrogativi su una questione caldissima. Dopo mesi di tensioni, il Pentagono ha deciso di escludere Anthropic dai contratti legati alla sicurezza nazionale, aprendo di fatto la strada a OpenAI.

Che cosa sta succedendo e come leggere gli orientamenti dei ‘papà’ di Claude e ChatGPT? “Di fatto è la manifestazione di due filosofie aziendali e due strategie di posizionamento profondamente diverse, destinate a definire il futuro del settore”, dice a LaSalute di LaPresse Francesco Branda, ricercatore dell’Università Campus Bio-Medico e socio della Società europea per l’etica e la politica dell’intelligenza artificiale (Sepai).

Due filosofie e il futuro dell’AI

“Da un lato OpenAI (ChatGPT) sembra aver fatto una scelta pragmatica e, oserei dire, di ‘realpolitik’. Collaborare con la Difesa americana significa probabilmente avere accesso a risorse, dati e un’infrastruttura di calcolo senza pari, oltre a un ruolo da protagonista in un settore strategico. La  motivazione ufficiale è probabilmente quella di guidare dall’interno lo sviluppo di un’AI sicura ed etica in ambito militare, piuttosto che lasciare che altri, forse meno scrupolosi, occupino quello spazio. È una scelta che comporta grandi responsabilità e rischi, ma anche enormi opportunità di influenza”, riflette Branda.

Dall’altro lato, Anthropic “ha preso una posizione più ‘idealista’ e precauzionale. Rifiutando a priori l’uso bellico delle proprie tecnologie, costruisce un forte brand etico e si pone come baluardo di un’AI dal volto più umano. È una scelta che piace a una certa fetta di mercato, ricercatori e opinione pubblica, ma che potrebbe relegarla a un ruolo di nicchia in ambiti, come appunto quello della difesa, dove la posta in gioco è altissima”.

I punti deboli

“Personalmente, non credo ci sia un “giusto” o “sbagliato” assoluto. La prima è una scelta che richiederà un controllo democratico e una trasparenza immensi per non trasformarsi in un mostro. La seconda è più comoda dal punto di vista etico, ma forse meno impattante nel breve termine. La vera domanda è: chi stabilirà le regole? Chi è dentro al gioco o chi ne resta fuori?”, si chiede il ricercatore.

Da acceleratore di salute, l’AI diventa un’arma?

A colpire è anche il fatto che ormai l’intelligenza artificiale, da acceleratore per lo sviluppo di nuovi farmaci e la scoperta di geni malattia, è diventata un’arma. “Purtroppo è vero, e questo è il paradosso di tutte le tecnologie dual-use. L’AI è intrinsecamente una tecnologia a doppio taglio. Gli stessi algoritmi che accelerano la scoperta di nuovi farmaci e terapie personalizzate (il lato “salute”) possono essere riadattati per progettare nuove molecole tossiche o ottimizzare sistemi d’arma autonomi (il lato “arma”)”, chiarisce Branda.

Un confine sottilissimo

Ma attenzione: “Non è l’AI in sé ad essere buona o cattiva, ma l’uso che se ne fa. Il vero punto critico è la velocità: l’AI accelera i processi in modo esponenziale. Se da un lato questo è una benedizione per trovare cure, dall’altro rende la corsa agli armamenti e la potenziale capacità di fare del male molto più rapida e difficile da controllare con i tradizionali meccanismi diplomatici. Il confine tra acceleratore di salute e moltiplicatore di potenza bellica è sottilissimo – aggiunge – e dipende solo dall’intenzione e dal contesto di chi la utilizza”.

La guerra tecnologica 

Dopo la nuova guerra in Iran, dovrebbe preoccuparci di più questo tema? “Credo che la risposta sia positiva, ma non dimentichiamo che l’AI non è la causa della guerra in Iran, che affonda le radici in tensioni politiche, religiose e geopolitiche decennali. Ciò che deve preoccuparci è come l’AI amplifica e trasforma questi conflitti“, evidenzia.

“L’intelligenza artificiale può rendere la guerra più ‘efficiente’ e purtroppo anche più ‘opaca’. Pensiamo all’uso di droni autonomi, sistemi di sorveglianza di massa per il controllo della popolazione, guerra psicologica condotta con deepfake e disinformazione su scala industriale. In un teatro delicato come il Medio Oriente, l’introduzione di queste tecnologie abbassa ulteriormente la soglia del conflitto e aumenta il rischio di escalation incontrollate. Quindi, più che la nuova guerra, è il suo volto tecnologico a doverci preoccupare e a richiedere una nuova consapevolezza e regolamentazione internazionale”.

Dati, privacy e la posta in gioco

E allora ha fatto bene chi non ha ceduto i propri dati per addestrare questi strumenti? “Questa è una domanda complessa, che tocca il rapporto tra individuo e collettività nell’era digitale. Se la guardiamo dal punto di vista della privacy e dell’autodeterminazione, la risposta è un sonoro ‘sì, ha fatto benissimo’ – risponde lo scienziato – In un mondo in cui i dati sono il nuovo petrolio, cedere le proprie informazioni personali, spesso in cambio di un servizio gratuito di cui non comprendiamo appieno il valore, è un atto di cui non sempre si valutano le conseguenze a lungo termine”.

“Rifiutarsi è un modo per affermare la propria sovranità digitale. Se, invece, guardiamo al progresso scientifico e collettivo, la questione si fa più grigia. I grandi modelli di AI si addestrano su quantità sterminate di dati. Meno dati condividiamo, più rischiamo di creare modelli distorti, meno rappresentativi della complessità umana e che potenzialmente incorporano i bias di chi ha accettato di condividere i propri dati. Il rischio è di creare un’AI ‘d’élite’, addestrata sui dati di una parte specifica della popolazione, che poi prende decisioni per tutti”.

“Personalmente, credo che la risposta giusta non stia nel decidere se ‘cedere o non cedere’, ma nel come e a chi. Abbiamo bisogno di un nuovo contratto sociale per i dati: uno che garantisca trasparenza su come verranno usati, che preveda un equo compenso o una chiara ricaduta in termini di bene comune. Ma anche che dia alle persone un controllo reale e granulare sulle proprie informazioni. Chi si è opposto alla cessione acritica ha fatto benissimo a suonare un campanello d’allarme. Ora dobbiamo costruire un’alternativa migliore”, conclude.

© Riproduzione Riservata