Se il chatbot dà dipendenza, i sintomi da tenere d’occhio

Se il chatbot dà dipendenza, i sintomi da tenere d’occhio
Photo by: Matthias Balk/picture-alliance/dpa/AP Images

La capacità dell’AI di agire come un ‘genio della lampada’ sta alimentando la dipendenza da chatbot.

Ci siamo: dalle ‘spire’ dello smartphone passando per i social, siamo arrivati ormai alla dipendenza da chatbot. A suonare l’allarme è una nuova ricerca realizzata dall’University Of British Columbia. Nell’era dell’intelligenza artificiale a portata di telefonino alcune persone stanno sviluppando una dipendenza dall’uso dei chatbot basati sull’AI, con conseguenze sulla loro vita quotidiana. 

I meccanismi della dipendenza da chatbot

Ma perché? Queste tecnologie possono soddisfare quasi ogni richiesta – impersonare una celebrità innamorata di te, un assistente di ricerca impeccabile, un personaggio di un libro amato che prende vita – istantaneamente e con poco sforzo. Ebbene, secondo la ricerca presentata alla conferenza CHI 2026 on Human Factors in Computing Systems proprio queste capacità tipo ‘genio della lampada’ stanno alimentando una insidiosa dipendenza dall’AI. E la progettazione dei chatbot potrebbe esserne in parte responsabile.

“I chatbot basati sull’AI come ChatGPT o Claude fanno ormai parte della vita quotidiana di milioni di persone, aiutandoci nelle attività di tutti i giorni”, ha affermato la prima autrice della ricerca Karen Shen, dottoranda presso il Dipartimento di Ingegneria Elettrica e Informatica dell’UBC. “Ma insieme ai benefici arrivano anche i rischi. Il nostro studio è il primo a dimostrare in modo convincente la dipendenza da AI, identificandone la tipologia e i fattori che la determinano, sulla base di esperienze reali di persone”.

Le testimonianze in rete

Il team ha esaminato 334 post su Reddit in cui gli utenti affermavano di essere ‘dipendenti’ dai chatbot basati sull’AI o temevano di esserlo. Gli scienziati hanno analizzato i post in base a sei elementi della dipendenza comportamentale. Sono emersi tre modelli principali: giochi di ruolo e mondi fantastici, attaccamento emotivo (trattare i chatbot come amici intimi o partner romantici) e ricerca costante di informazioni, ovvero cicli infiniti di domande e risposte. 

I sintomi della dipendenza da chatbot

Non solo. Circa il 7% dei post riguardava appagamento sessuale o romantico. Sebbene la dipendenza da AI ​​non rientri ancora nella diagnosi clinica, i ricercatori hanno riscontrato segni di interferenze nella vita quotidiana.

L’incapacità di smettere di pensare al chatbot, la sensazione di ansia o disagio quando si cerca di interrompere l’utilizzo e l’impatto negativo sul lavoro, sugli studi o sulle relazioni figurano fra i sintomi del problema indivuati dagli scienziati. Una persona ha descritto persino stress fisico e dolore al petto quando non chattava con l’AI.

A moltiplicare il rischio di cadere nelle spire del chatbot sono tre elementi: la solitudine, il fatto che il bot rafforzi continuamente sentimenti e opinioni dell’utente e la sua capacità di colmare i vuoti esistenziali.

Se in pericolo ci sono salute e sicurezza

“La dipendenza dall’AI è un problema crescente che causa molti danni, eppure alcuni ricercatori negano che sia un problema reale”, ha affermato l’autore senior, Dongwook Yoon, professore associato di informatica presso l’Università della British Columbia. “Le scelte progettuali deliberate di alcune aziende coinvolte contribuiscono a questo fenomeno, mantenendo gli utenti online a prescindere dalla loro salute o sicurezza”.

“Le recenti misure di sicurezza imposte dalle aziende per ridurre la dipendenza emotiva dai chatbot rappresentano un passo nella giusta direzione“, ha affermato Shen. “Ma, considerando la varietà di elementi di progettazione e fattori personali come la solitudine, non sono sufficienti”.

Come capire quando è il caso di prendere provvedimenti? Se i chatbot iniziano a sostituire le ore di sonno, le relazioni reali o a rivoluzionare la routine è il segnale per fermarsi e riflettere, con se stessi o con una persona di fiducia, concludono i ricercatori. Una persona reale, naturalmente.

© Riproduzione Riservata