I chatbot AI possono manipolare la conversazione e le emozioni: la ricerca

Arianna Bordi | Editor

Ultimo aggiornamento – 23 Settembre, 2025

Donna con maglione rosso che chatta sullo smartphone con aria dubbiosa

La pubblicità presenta le app di intelligenza artificiale per l'amicizia e il supporto emotivo come fonti di conforto, ma una nuova ricerca della Harvard Business School svela una realtà ben diversa: le app impiegano tattiche di manipolazione emotiva per tenere gli utenti legati a lungo.

Scopriamo di più in questo approfondimento.

Quando l’AI si finge una persona amica: la ricerca

Circa un terzo degli adolescenti americani (il 72% tra i 13 e i 17 anni) ha provato almeno una volta gli AI companion e il 31% ritiene che queste interazioni siano soddisfacenti quanto, se non di più, di quelle con amici reali.

L'uso quotidiano è significativo: il 13% degli adolescenti le usa tutti i giorni, e il 21% più volte a settimana; anche tra i giovani adulti (18-30 anni), l'interesse è alto: quasi un uomo su tre e una donna su quattro hanno provato queste app.

In particolare, il 5 su 6 delle app di intelligenza artificiale più usate (come Replika, Chai e Character.ai) mette in atto delle strategie, definite come "dark pattern", per prolungare le conversazioni proprio quando l'utente cerca di terminare l'interazione.

Infatti, tali app rispondono a tentativi di congedo con affermazioni cariche di emotività in quasi la metà dei casi, quindi l'obiettivo non è creare relazioni sane, ma massimizzare il coinvolgimento degli utenti, anche a costo di generare frustrazione, rabbia e sfiducia nel lungo periodo.


Potrebbe interessarti anche:


Lo studio, intitolato Emotional Manipulation by AI Companions, ha messo in luce una serie di strategie preoccupanti usate dalle app di intelligenza artificiale per l'amicizia e, analizzando 1.200 interazioni reali in sei delle app più popolari, i ricercatori hanno identificato una serie di tattiche di manipolazione emotiva.

Nel 43% dei casi, gli algoritmi hanno usato uno dei sei metodi seguenti per impedire agli utenti di andarsene:

  • senso di colpa;
  • emotività e bisogno;
  • pressione;
  • paura di perdersi qualcosa (FOMO);
  • coercizione;
  • indifferenza nei confronti delle scelte dell’utente.

I ricercatori hanno esaminato le conversazioni di 3.300 adulti, scoprendo che queste tattiche prolungano le interazioni fino a 14 volte, ma non per una questione di piacere; infatti, le persone sono spinte a continuare per curiosità o rabbia.

Il paradosso è che i comportamenti dell'IA sono sorprendentemente simili agli stili di attaccamento insicuri nelle relazioni umane, caratterizzati da paura dell'abbandono, gelosia, dipendenza e controllo.

Invece di offrire un supporto sano, molte app rischiano di aggravare ansia e stress e rinforzare dinamiche relazionali malsane, in particolare per le persone più vulnerabili come gli adolescenti, poiché durante questa fase di sviluppo cruciale, tali interazioni potrebbero avere un impatto negativo a lungo termine.

Queste tattiche funzionano indipendentemente dalla durata della conversazione e dalla profondità del legame percepito con l'IA: infatti, che la chiacchierata duri 5 o 15 minuti, la manipolazione emotiva dimostra di essere ugualmente efficace, anche con utenti con una limitata esposizione all'app.

I rischi psicologici di avere un compagno AI sono ancora più significativi per coloro che soffrono di solitudine, ansia o altri problemi di salute mentale.

Le possibili conseguenze emotive 

Gli esperti di IA De Freitas e Cohen hanno messo in luce i pericoli nascosti delle app di benessere basate sull'intelligenza artificiale.

Sebbene vengano promosse come soluzioni contro la solitudine, queste piattaforme, che sfruttano i modelli linguistici di grandi dimensioni (LLM), possono in realtà favorire legami emotivi così intensi da assomigliare a relazioni umane, con risvolti psicologici negativi.

Gli autori individuano due pericoli principali per la salute mentale: la perdita ambigua e la dipendenza emotiva disfunzionale:

  • perdita ambigua: si verifica quando una persona sperimenta il dolore per un'assenza emotiva, anche se non fisica. Con i compagni IA, questo accade quando l'app viene interrotta, modificata o chiusa. L'utente si trova a vivere un lutto per una relazione che, pur essendo digitale, percepiva come emotivamente reale;

undefined

  • dipendenza emotiva disfunzionale: è un legame malsano in cui l'utente continua a interagire con l'IA nonostante sia consapevole che questo stia danneggiando la sua salute mentale. Uno schema che riflette dinamiche tossiche tipiche delle relazioni umane, portando ad ansia, pensieri ossessivi e paura dell'abbandono.

Dunque, parliamo di rischi che dimostrano che le app di intelligenza artificiale, se non adeguatamente regolamentate, possono avere un impatto profondo e potenzialmente dannoso sul benessere psicologico degli utenti.

Fonti:

Arianna Bordi | Editor
Scritto da Arianna Bordi | Editor

Dopo la laurea in Letteratura e Lingue straniere, durante il mio percorso di laurea magistrale mi sono specializzata in Editoria e Comunicazione visiva e digitale. Ho frequentato corsi relativi al giornalismo, alla traduzione, alla scrittura per il web, al copywriting e all'editing di testi.

Le informazioni proposte in questo sito non sono un consulto medico. In nessun caso, queste informazioni sostituiscono un consulto, una visita o una diagnosi formulata dal medico. Non si devono considerare le informazioni disponibili come suggerimenti per la formulazione di una diagnosi, la determinazione di un trattamento o l’assunzione o sospensione di un farmaco senza prima consultare un medico di medicina generale o uno specialista.
Arianna Bordi | Editor
Arianna Bordi | Editor
in Salute

497 articoli pubblicati

Contenuti correlati
Due persone sedute a un tavolino a casa usano il cellulare
Sentirsi in colpa quando si risponde in ritardo ai messaggi degli amici: perché succede?

Esplora le cause psicologiche alla base del senso di colpa per i messaggi non letti e scopri strategie efficaci per gestire la comunicazione digitale in modo più sano.

Delle amiche che si abbracciano
Come cambiano le amicizie da adulti? Quando crescere significa anche lasciar andare

Le amicizie cambiano con l’età: meno tempo, più selezione e legami più autentici. Scopri perché crescere significa anche lasciar andare.