I chatbot AI possono manipolare la conversazione e le emozioni: la ricerca

Arianna Bordi | Autrice e divulgatrice esperta in salute femminile, psicologia e salute del cervello
A cura di Arianna Bordi
Autrice e divulgatrice esperta in salute femminile, psicologia e salute del cervello

Data articolo – 23 Settembre, 2025

Donna con maglione rosso che chatta sullo smartphone con aria dubbiosa

La pubblicità presenta le app di intelligenza artificiale per l'amicizia e il supporto emotivo come fonti di conforto, ma una nuova ricerca della Harvard Business School svela una realtà ben diversa: le app impiegano tattiche di manipolazione emotiva per tenere gli utenti legati a lungo.

Scopriamo di più in questo approfondimento.

Quando l’AI si finge una persona amica: la ricerca

Circa un terzo degli adolescenti americani (il 72% tra i 13 e i 17 anni) ha provato almeno una volta gli AI companion e il 31% ritiene che queste interazioni siano soddisfacenti quanto, se non di più, di quelle con amici reali.

L'uso quotidiano è significativo: il 13% degli adolescenti le usa tutti i giorni, e il 21% più volte a settimana; anche tra i giovani adulti (18-30 anni), l'interesse è alto: quasi un uomo su tre e una donna su quattro hanno provato queste app.

In particolare, il 5 su 6 delle app di intelligenza artificiale più usate (come Replika, Chai e Character.ai) mette in atto delle strategie, definite come "dark pattern", per prolungare le conversazioni proprio quando l'utente cerca di terminare l'interazione.

Infatti, tali app rispondono a tentativi di congedo con affermazioni cariche di emotività in quasi la metà dei casi, quindi l'obiettivo non è creare relazioni sane, ma massimizzare il coinvolgimento degli utenti, anche a costo di generare frustrazione, rabbia e sfiducia nel lungo periodo.


Potrebbe interessarti anche:


Lo studio, intitolato Emotional Manipulation by AI Companions, ha messo in luce una serie di strategie preoccupanti usate dalle app di intelligenza artificiale per l'amicizia e, analizzando 1.200 interazioni reali in sei delle app più popolari, i ricercatori hanno identificato una serie di tattiche di manipolazione emotiva.

Nel 43% dei casi, gli algoritmi hanno usato uno dei sei metodi seguenti per impedire agli utenti di andarsene:

  • senso di colpa;
  • emotività e bisogno;
  • pressione;
  • paura di perdersi qualcosa (FOMO);
  • coercizione;
  • indifferenza nei confronti delle scelte dell’utente.

I ricercatori hanno esaminato le conversazioni di 3.300 adulti, scoprendo che queste tattiche prolungano le interazioni fino a 14 volte, ma non per una questione di piacere; infatti, le persone sono spinte a continuare per curiosità o rabbia.

Il paradosso è che i comportamenti dell'IA sono sorprendentemente simili agli stili di attaccamento insicuri nelle relazioni umane, caratterizzati da paura dell'abbandono, gelosia, dipendenza e controllo.

Invece di offrire un supporto sano, molte app rischiano di aggravare ansia e stress e rinforzare dinamiche relazionali malsane, in particolare per le persone più vulnerabili come gli adolescenti, poiché durante questa fase di sviluppo cruciale, tali interazioni potrebbero avere un impatto negativo a lungo termine.

Queste tattiche funzionano indipendentemente dalla durata della conversazione e dalla profondità del legame percepito con l'IA: infatti, che la chiacchierata duri 5 o 15 minuti, la manipolazione emotiva dimostra di essere ugualmente efficace, anche con utenti con una limitata esposizione all'app.

I rischi psicologici di avere un compagno AI sono ancora più significativi per coloro che soffrono di solitudine, ansia o altri problemi di salute mentale.

Le possibili conseguenze emotive 

Gli esperti di IA De Freitas e Cohen hanno messo in luce i pericoli nascosti delle app di benessere basate sull'intelligenza artificiale.

Sebbene vengano promosse come soluzioni contro la solitudine, queste piattaforme, che sfruttano i modelli linguistici di grandi dimensioni (LLM), possono in realtà favorire legami emotivi così intensi da assomigliare a relazioni umane, con risvolti psicologici negativi.

Gli autori individuano due pericoli principali per la salute mentale: la perdita ambigua e la dipendenza emotiva disfunzionale:

  • perdita ambigua: si verifica quando una persona sperimenta il dolore per un'assenza emotiva, anche se non fisica. Con i compagni IA, questo accade quando l'app viene interrotta, modificata o chiusa. L'utente si trova a vivere un lutto per una relazione che, pur essendo digitale, percepiva come emotivamente reale;

undefined

  • dipendenza emotiva disfunzionale: è un legame malsano in cui l'utente continua a interagire con l'IA nonostante sia consapevole che questo stia danneggiando la sua salute mentale. Uno schema che riflette dinamiche tossiche tipiche delle relazioni umane, portando ad ansia, pensieri ossessivi e paura dell'abbandono.

Dunque, parliamo di rischi che dimostrano che le app di intelligenza artificiale, se non adeguatamente regolamentate, possono avere un impatto profondo e potenzialmente dannoso sul benessere psicologico degli utenti.

Fonti:

Le informazioni proposte in questo sito non sono un consulto medico. In nessun caso, queste informazioni sostituiscono un consulto, una visita o una diagnosi formulata dal medico. Non si devono considerare le informazioni disponibili come suggerimenti per la formulazione di una diagnosi, la determinazione di un trattamento o l’assunzione o sospensione di un farmaco senza prima consultare un medico di medicina generale o uno specialista.
Contenuti correlati
Giovane donna spiega una cosa sul cellulare a un'anziana su una panchina
Amicizie intergenerazionali: ecco perché una persona amica non coetanea potrebbe farci stare meglio

Hai mai pensato di stringere amicizia con qualcuno di un'altra generazione? Scopri i sorprendenti vantaggi di queste relazioni e come possono arricchire la tua vita.

Due persone sedute a un tavolino a casa usano il cellulare
Sentirsi in colpa quando si risponde in ritardo ai messaggi degli amici: perché succede?

Esplora le cause psicologiche alla base del senso di colpa per i messaggi non letti e scopri strategie efficaci per gestire la comunicazione digitale in modo più sano.