Intelligenza artificiale, verso il codice etico europeo: "Ma il rischio non è Matrix. E' il lavoro"

Intervista a Piero Poccianti (presidente AlxlA) che partecipa alla stesura del documento europeo "basato sull'essere umano". Ma il problema più preoccupante, allo stato, riguarda l'impatto economico

"L'intelligenza artificiale è uno strumento molto potente, che senza dubbio trasformerà la nostra società. Capire se questo avverrà in modo positivo o negativo dipende da noi". A chiedere un'assunzione collettiva di responsabilità è Piero Poccianti, dal 2017 presidente della Associazione Italiana per l'Intelligenza Artificiale (AIxIA), uno dei soggetti chiamati dalla Commissione europea a partecipare alla stesura di un Codice etico europeo che possa normare questo settore, sul quale Bruxelles punta a far convergere almeno 20 miliardi di euro di investimenti pubblici e privati entro il 2020.

Il testo definitivo sarà presentato in marzo e l'approccio sarà verosimilmente quello "basato sull'essere umano" auspicato un anno fa dalla commissaria Mariya Gabriel, in occasione della presentazione delle linee guida strategiche per il settore. LaPresse ha raggiunto telefonicamente Poccianti per capire in quale contesto andrà a inserirsi il documento Ue.

Quali sono i rischi di uno sviluppo della AI in assenza di codici etici?
"Siamo ben lontani da una "Artificial general intelligence" che possa prendere il controllo in stile Matrix. Quella è fantascienza. E' però vero che in ambiti specifici - dalla diagnosi di alcune malattie al riconoscimento di immagini - ci sono macchine la cui intelligenza ha eguagliato o superato quella dell'uomo, ma sono strumenti specializzati. I veri pericoli sono allora rappresentati dall'impatto sull'economia che può derivare dalla sostituzione di compiti umani, dal fatto che l'intelligenza artificiale possa essere utilizzata per condizionare le persone e dalla creazione di armi autonome. Su quest'ultimo punto, in particolare, il Future of Life Institute ha promosso una raccolta firme tra i ricercatori e quindi una petizione".

In questo senso, quale è stato il contributo della vostra associazione alla stesura del Codice etico europeo?
"Abbiamo voluto spostare l'attenzione dall'oggetto al contesto. Stiamo assistendo a una serie di crisi: crollo di fiducia nella democrazia, disuguaglianze sociali, rischi ambientali. Se in questo contesto decidiamo di utilizzare l'intelligenza artificiale solo per massimizzare il profitto, finiremo solo per far crollare l'economia. Se invece decidiamo di orientare i suoi impieghi verso una crescita del benessere, potremo - ad esempio - lavorare meno e vivere meglio".

Non c'è il rischio che una visione europea di questo tipo finisca sopraffatta da una visione più "di mercato" portata avanti da altre potenze?
"L'Europa è in ritardo, ma ha una grande forza culturale. Gli Stati Uniti e la Cina sono molto concentrati sulle reti neurali profonde e sul tema dell'apprendimento, che sta dando grossi successi nel campo della percezione. L'Europa punta invece a integrare tra loro diversi paradigmi, operando una distinzione meno netta tra gli strumenti. Questo è un approccio che può permetterle di recuperare terreno e darle la chance di mettere in discussione anche il mercato. Quello che diversi ricercatori auspicano, poi, è che avvenga qualcosa di simile a successo col regolamento sulla privacy, il Gdpr, con l'Europa che si è messa alla guida e le aziende che l'hanno seguita".

E l'Italia come si colloca in questo quadro?
"La situazione che ci riguarda vede una ricerca molto avanzata, di eccellenza, anche a fronte di pochi investimenti. I ricercatori non sono molti, ma siamo al terzo posto a livello mondiale per numero di articoli e citazioni. Abbiamo anche diverse startup, quello che manca è un collegamento forte tra industria e mondo della ricerca, anche se quello italiano è stato il primo governo a patrocinare il Claire, il network europeo di esperti e laboratori che lavorano nell'ambito dell'intelligenza artificiale. Per questo come associazione abbiamo deciso di promuovere l'AI Forum, il primo evento accademico italiano interamente dedicato all'artificial intelligence a favore delle imprese, che si terrà a Milano il prossimo 12 aprile". 

© Copyright LaPresse - Riproduzione Riservata