Mentre l’AI inizia a dare i suoi frutti nel mondo della medicina, nel bene e nel male, in realtà sta cambiando anche il mondo del lavoro. Ma in che modo? “In effetti stiamo osservando non tanto una vera delega decisionale all’intelligenza artificiale, quanto piuttosto una messa in scena della delega”, dice a LaSalute di LaPresse Francesco Branda, ricercatore dell’Università Campus Bio-Medico e fresco socio della Società europea per l’etica e la politica dell’intelligenza artificiale (Sepai), che ne parla su ‘Philosophy & Technology’ stigmatizzando l’illusione dell”AI-First’.
L’impressione è che alla vera competenza si sostituisce in modo strisciante un sapere copia-incolla. “Questo è un fenomeno estremamente diffuso e, direi, strutturale in questa fase. Quello che vediamo non è semplicemente un aumento del copia e incolla, ma qualcosa di più profondo: una sostituzione progressiva della competenza con la performance della competenza stessa”, afferma lo studioso. Ma in che senso?
Oltre la retorica dell’AI first
“Molte organizzazioni oggi adottano una retorica molto forte intorno all’idea di diventare AI-first. Questo linguaggio suggerisce che l’intelligenza artificiale sia ormai in grado di guidare processi decisionali complessi o di sostituire competenze consolidate. Tuttavia nella pratica quotidiana accade qualcosa di diverso: si introducono progetti pilota, sperimentazioni circoscritte, iniziative simboliche che raramente vengono realmente integrate nei processi produttivi o decisionali”, chiarisce lo studioso.
Così “l’organizzazione performa razionalità tecnologica più di quanto la eserciti davvero. Si costruisce una narrazione di innovazione che serve soprattutto a segnalare modernità, efficienza e adattamento al cambiamento, ma senza che vi sia necessariamente una comprensione profonda delle implicazioni tecniche, epistemiche e organizzative dell’AI”.
Per Branda insomma “la delega all’AI spesso non è reale. L’intelligenza artificiale non è ancora sufficientemente affidabile, né sufficientemente contestualizzata, da sostituire il giudizio umano nei processi complessi”. Eppure si dice che “lo suggerisce l’algoritmo”, “lo indica il modello”, oppure che “l’AI ha analizzato i dati”. “Questo crea una forma di autorità algoritmica simulata, che talvolta serve più a legittimare decisioni già prese che a guidarle davvero”, continua.
Il linguaggio dell’AI
Qui entra in gioco un secondo fenomeno: “In molte organizzazioni si ripete il linguaggio dell’AI, cioè modelli, prompt, automazione, agenti, data-driven decision making, senza possedere davvero le competenze necessarie per comprendere come questi strumenti funzionino o quali siano i loro limiti. Si tratta di una sorta di mimetismo epistemico: si imita la forma del sapere tecnologico senza possederne la sostanza”, afferma Branda.
La sfida
Per il ricercatore “l’AI, in sé, non è intrinsecamente disumanizzante. Anzi, in molti casi potrebbe liberare tempo e risorse cognitive per attività più relazionali, creative o strategiche. Il rischio emerge quando l’AI viene usata come schermo decisionale, una giustificazione esterna che permette ai manager di evitare il confronto diretto con i team o la responsabilità di decisioni difficili. Paradossalmente, la ricerca mostra l’opposto di ciò che spesso si crede: sistemi algoritmici complessi richiedono più coordinamento umano, più supervisione e più contesto, non meno”, chiarisce.
Responsabilità distribuita: umani e AI protagonisti
La vera sfida manageriale non è delegare all’AI, “ma costruire nuove forme di responsabilità distribuita tra persone e sistemi tecnologici. Quando questo avviene in modo trasparente e criticabile, l’AI può persino migliorare la qualità delle relazioni organizzative. Quando invece viene usata per evitare il pensiero o il dialogo, allora sì, il rischio di impoverimento umano diventa reale”, continua il ricercatore.
Nel far west dell’AI
Insomma, in questa sorta di far west dilaga “la shadow AI. In assenza di linee guida chiare e di una reale strategia organizzativa – spiega l’esperto – le persone iniziano a utilizzare strumenti di intelligenza artificiale in modo informale e spesso invisibile ai processi ufficiali. I dipendenti generano testi, report, analisi o presentazioni con strumenti generativi senza che queste pratiche siano realmente integrate nei sistemi di qualità o di revisione dell’organizzazione. Il risultato è un ecosistema informale in cui l’AI diventa uno strumento di produttività individuale, ma non un vero elemento di trasformazione organizzativa”, avverte.
Parallelamente le organizzazioni producono policy, linee guida e strategie sull’AI “che spesso hanno una funzione più simbolica che operativa. Documenti generati rapidamente, policy copiate da altre aziende, framework adattati superficialmente. Tutto ciò contribuisce a creare l’impressione di una governance tecnologica avanzata, mentre in realtà il livello di competenza interna rimane limitato”.
Nuove competenze (che non ci sono)
Così ci troviamo con documenti generati con AI senza verifica approfondita, analisi lampo prive di un dominio reale del tema, decisioni prese sulla base di output che pochi hanno le competenze per valutare criticamente.
“Il punto cruciale è che l’intelligenza artificiale non riduce la soglia di competenza necessaria: la trasforma. In passato, la competenza professionale era spesso legata alla produzione diretta di contenuti: scrivere un report, elaborare un’analisi, progettare una strategia”.
“Oggi la competenza si sposta verso capacità diverse: saper formulare domande efficaci ai sistemi AI; saper valutare criticamente gli output generati; saper integrare le risposte dell’AI con conoscenze specifiche di dominio; saper distinguere tra plausibilità linguistica e verità epistemica. Questo richiede più cultura critica, non meno”, insiste Branda. La sfida è un nuovo sapere.
Una competenza simulata
“Il problema è che la retorica dominante sull’AI spinge molti professionisti e manager a saltare proprio questo passaggio. Si assume che la disponibilità dello strumento equivalga alla disponibilità della competenza”, dice il ricercatore. E invece…
Tutto questo “genera una inflazione di contenuti apparentemente sofisticati ma epistemicamente fragili. Per questo motivo sostengo che il vero rischio dell’AI nelle organizzazioni non sia la sostituzione dell’intelligenza umana, ma la diffusione di ciò che potremmo chiamare competenza simulata: sistemi e persone che sembrano sapere molto più di quanto sappiano davvero. E questo, nel lungo periodo, rappresenta una sfida culturale e istituzionale molto più seria della semplice automazione”, conclude Branda. Chi ci aiuterà a riconoscere i falsi talenti nell’era dell’AI?

