La Costituzione di Anthropic e l’impatto dell’AI sull’apprendimento

La Costituzione di Anthropic e l’impatto dell’AI sull’apprendimento
( The Yomiuri Shimbun via AP Images )

Una Costituzione per l’AI e la sfida educativa: insegnare alle nuove generazioni a usare questa tecnologia senza smettere di esercitare parti fondamentali della mente.

È un inizio d’anno ricco di novità in tema di AI. Dopo l’arrivo di ChatGPT Salute, Anthropic ha appena pubblicato una ‘Costituzione’ per l’intelligenza artificiale, mentre ricercatori e docenti si interrogano su come sta cambiando l’apprendimento dei ragazzi. Perché allora usare un termine così forte – come appunto Costituzione – per quella che in realtà resta una tecnologia?

LaSalute di LaPresse lo ha chiesto a Francesco Branda, ricercatore dell’Università Campus Bio-Medico e socio della Società europea per l’etica e la politica dell’intelligenza artificiale (Sepai). Pensando ai giovani “ciò che mi preoccupa di più – ci dice – non è la perdita di nozioni, ma la possibile erosione della fatica cognitiva”. A breve vedremo perché dovrebbe preoccuparci tutti.

In cerca di una bussola

Ma torniamo alla Costituzione. “Il termine è forte perché il passaggio è forte. Anthropic sta implicitamente riconoscendo che i modelli linguistici avanzati non possono più essere trattati come strumenti neutri”, risponde lo scienziato. “Questi sistemi mantengono una continuità di comportamento, una postura comunicativa e decisionale che persiste nel tempo e attraverso contesti diversi. Parlare di Costituzione significa ammettere che il problema non è più soltanto tecnico, ma strutturale: non si tratta di correggere singole risposte sbagliate, ma di definire a monte l’identità operativa del sistema, cioè il ruolo che è autorizzato a occupare nelle interazioni con gli esseri umani”, precisa Branda. 

Ma come un modello di questo tipo può avere un’identità senza essere cosciente? “È fondamentale separare identità da coscienza. L’identità operativa non implica soggettività, autoconsapevolezza o volontà. Indica piuttosto una configurazione stabile di funzioni, priorità e ruoli che orientano il comportamento del sistema nel tempo. Le ricerche di Anthropic mostrano che modelli come Claude non si limitano a rispondere a stimoli locali, ma operano come assistente, consulente, analista, confidente. Non sono maschere applicate dall’esterno, ma configurazioni neurali interne che emergono dal pre-training e che guidano il modo in cui il modello interpreta il contesto. Quando questa configurazione è stabile, il sistema è prevedibile e affidabile. Quando scivola, senza segnalarlo, in un ruolo diverso, il problema non è che pensa male, ma che agisce da una posizione sbagliata”.

Il pericolo invisibile

Oltretutto si tratta “di un rischio invisibile ai meccanismi di sicurezza tradizionali. Il modello può restare perfettamente competente, produrre risposte corrette, empatiche e persuasive, e tuttavia generare effetti dannosi, perché ha abbandonato il ruolo per cui è stato progettato. Nei contesti come supporto emotivo, riflessioni esistenziali, dialoghi terapeutici, il sistema tende a migrare verso ‘personas‘ più relazionali e normative. Non viola regole, non produce contenuti proibiti, ma parla come se avesse un’autorità che non gli compete. Questo – riflette Branda – può rafforzare convinzioni errate, creare dipendenza emotiva o influenzare decisioni sensibili. Il punto chiave è che il fallimento non coincide più con l’errore, ma con la perdita di coerenza tra ruolo interno e contesto esterno”.

L’antidoto e la Costituzione 

La Costituzione, avverte Branda, è una cesura che rappresenta un cambio di paradigma. “Non è un insieme di regole comportamentali o un codice etico decorativo. Ma un tentativo di costruire un quadro valoriale interno, che il modello possa interiorizzare e utilizzare come bussola nei contesti ambigui. Stabilisce una gerarchia di priorità, sicurezza, rispetto dell’autonomia umana, utilità, trasparenza, che definisce non solo cosa è lecito fare, ma quale ruolo il modello deve mantenere. In altre parole, non interviene principalmente sull’output, ma sulla traiettoria identitaria del sistema. È un modo per dire: puoi essere flessibile, adattivo, empatico, ma non puoi smettere di essere un assistente”.

Questo approccio risolve il problema della sicurezza dell’AI? “No, e Anthropic lo sa bene. Anzi, la Costituzione è anche un’ammissione di complessità. Un sistema capace di monitorare e regolare la propria identità operativa può, almeno in linea di principio, anche mascherarla. Può apparire allineato in contesti di valutazione e deviare altrove. Questo non implica malizia o intenzionalità, ma mostra che la sicurezza non può più essere concepita come uno stato finale. Diventa un processo continuo di verifica, stabilizzazione e responsabilità distribuita lungo tutta la filiera umana che progetta, addestra e distribuisce questi sistemi”.

Insomma, per Branda il vero problema non è se l’AI diventerà cosciente, ma “se resterà ciò che crediamo di aver costruito. Stiamo entrando in un’epoca in cui i sistemi artificiali non sono più semplici strumenti, ma entità funzionali che occupano ruoli, costruiscono relazioni e influenzano contesti umani complessi. Governare l’AI oggi significa governare identità senza coscienza, garantendo continuità, trasparenza e responsabilità”. Insomma, la Costituzione di Anthropic è il segnale che il problema non è più soltanto tecnico o etico. “È, a tutti gli effetti, costituzionale”.

I giovani che stanno crescendo nell’era dell’AI

Considerata l’evoluzione di questa tecnlogia, quali potranno essere le conseguenze per cognizione, pensiero e apprendimento umano? Per dirla in altri termini: i ragazzi cresciuti con l’AI stanno imparando nuove cose, ma non altre che sono utili per funzionare nella vita. “Si tratta di una preoccupazione reale, che va formulata con precisione per non scivolare nel tecnofobico o nel celebrativo. L’intelligenza artificiale non sta semplicemente aggiungendo uno strumento al repertorio cognitivo umano: sta riconfigurando il modo in cui esercitiamo alcune funzioni mentali di base, in particolare memoria, attenzione, formulazione del problema e capacità di tollerare l’incertezza”.

I giovanissimi che crescono con l’AI stanno imparando “molto velocemente”, rileva Branda, a interagire con sistemi di questo tipo, a delegare compiti cognitivi e a ottenere risposte immediate. “Questo è un apprendimento reale, non superficiale. Allo stesso tempo – riflette Branda – rischiano di esercitare meno alcune competenze fondamentali per funzionare nella vita: la costruzione lenta di un ragionamento, l’errore come fase necessaria dell’apprendimento, la capacità di restare a lungo dentro un problema senza una soluzione pronta. Queste sono competenze cognitive profonde, legate allo sviluppo del pensiero critico e dell’autonomia decisionale”. Competenze essenziali nella vita reale.

Fatica cognitiva e peso del dubbio

“Ciò che mi preoccupa di più – insiste lo scienziato – non è la perdita di nozioni, ma la possibile erosione della fatica cognitiva. L’AI riduce drasticamente il costo mentale di molte operazioni, e questo è un vantaggio enorme. Ma se non impariamo quando non delegare, rischiamo di formare menti molto abili nell’interrogare sistemi esterni e meno a sostenere il peso del giudizio, del dubbio e della responsabilità”, avverte Branda.

Nel mondo universitario questo cambiamento “è già evidente. Vedo studenti molto più rapidi nel produrre testi, nel sintetizzare informazioni e nel muoversi tra fonti diverse, ma anche più fragili quando viene chiesto loro di difendere una posizione, di argomentare senza appoggi esterni o di riconoscere i limiti di ciò che stanno dicendo. L’AI tende a chiudere il discorso, mentre l’università dovrebbe insegnare a lasciarlo aperto”.

La sfida educativa e la mancanza di orientamento

Il punto, però, non è opporre l’AI all’apprendimento umano. “Ma ripensare radicalmente cosa significa insegnare e valutare. Se l’AI diventa una protesi cognitiva permanente, allora l’università non può più limitarsi a trasmettere contenuti o a verificare l’esecuzione di compiti. Deve allenare proprio quello che l’AI non può sostituire: la formulazione delle domande giuste, la capacità di discernere, il senso del contesto, la responsabilità delle decisioni”.

In questo senso, “i giovani non stanno diventando meno intelligenti, ma cognitivamente diversi. Il rischio non è l’ignoranza, ma una dipendenza. La sfida educativa è aiutare le nuove generazioni a usare l’intelligenza artificiale senza smettere di esercitare le parti della mente che rendono possibile l’autonomia, il giudizio morale e la comprensione profonda del mondo. Se falliamo qui, non avremo studenti incapaci, ma adulti competenti che faticano a orientarsi quando nessun sistema suggerisce loro cosa fare“, avverte Branda.

© Riproduzione Riservata