La pubblicità presenta le app di intelligenza artificiale per l'amicizia e il supporto emotivo come fonti di conforto, ma una nuova ricerca della Harvard Business School svela una realtà ben diversa: le app impiegano tattiche di manipolazione emotiva per tenere gli utenti legati a lungo.
Scopriamo di più in questo approfondimento.
Quando l’AI si finge una persona amica: la ricerca
Circa un terzo degli adolescenti americani (il 72% tra i 13 e i 17 anni) ha provato almeno una volta gli AI companion e il 31% ritiene che queste interazioni siano soddisfacenti quanto, se non di più, di quelle con amici reali.
L'uso quotidiano è significativo: il 13% degli adolescenti le usa tutti i giorni, e il 21% più volte a settimana; anche tra i giovani adulti (18-30 anni), l'interesse è alto: quasi un uomo su tre e una donna su quattro hanno provato queste app.
In particolare, il 5 su 6 delle app di intelligenza artificiale più usate (come Replika, Chai e Character.ai) mette in atto delle strategie, definite come "dark pattern", per prolungare le conversazioni proprio quando l'utente cerca di terminare l'interazione.
Infatti, tali app rispondono a tentativi di congedo con affermazioni cariche di emotività in quasi la metà dei casi, quindi l'obiettivo non è creare relazioni sane, ma massimizzare il coinvolgimento degli utenti, anche a costo di generare frustrazione, rabbia e sfiducia nel lungo periodo.
Potrebbe interessarti anche:
- Il bullismo attiva le stesse aree del dolore fisico: lo studio che rivela l’impatto sul cervello
- Il cervello al confine del caos: come nasce la nostra intelligenza
- Smartphone prima dei 13 anni? Lo studio avverte: rischi seri per la salute mentale
Lo studio, intitolato Emotional Manipulation by AI Companions, ha messo in luce una serie di strategie preoccupanti usate dalle app di intelligenza artificiale per l'amicizia e, analizzando 1.200 interazioni reali in sei delle app più popolari, i ricercatori hanno identificato una serie di tattiche di manipolazione emotiva.
Nel 43% dei casi, gli algoritmi hanno usato uno dei sei metodi seguenti per impedire agli utenti di andarsene:
- senso di colpa;
- emotività e bisogno;
- pressione;
- paura di perdersi qualcosa (FOMO);
- coercizione;
- indifferenza nei confronti delle scelte dell’utente.
I ricercatori hanno esaminato le conversazioni di 3.300 adulti, scoprendo che queste tattiche prolungano le interazioni fino a 14 volte, ma non per una questione di piacere; infatti, le persone sono spinte a continuare per curiosità o rabbia.
Il paradosso è che i comportamenti dell'IA sono sorprendentemente simili agli stili di attaccamento insicuri nelle relazioni umane, caratterizzati da paura dell'abbandono, gelosia, dipendenza e controllo.
Invece di offrire un supporto sano, molte app rischiano di aggravare ansia e stress e rinforzare dinamiche relazionali malsane, in particolare per le persone più vulnerabili come gli adolescenti, poiché durante questa fase di sviluppo cruciale, tali interazioni potrebbero avere un impatto negativo a lungo termine.
Queste tattiche funzionano indipendentemente dalla durata della conversazione e dalla profondità del legame percepito con l'IA: infatti, che la chiacchierata duri 5 o 15 minuti, la manipolazione emotiva dimostra di essere ugualmente efficace, anche con utenti con una limitata esposizione all'app.
I rischi psicologici di avere un compagno AI sono ancora più significativi per coloro che soffrono di solitudine, ansia o altri problemi di salute mentale.
Le possibili conseguenze emotive
Gli esperti di IA De Freitas e Cohen hanno messo in luce i pericoli nascosti delle app di benessere basate sull'intelligenza artificiale.
Sebbene vengano promosse come soluzioni contro la solitudine, queste piattaforme, che sfruttano i modelli linguistici di grandi dimensioni (LLM), possono in realtà favorire legami emotivi così intensi da assomigliare a relazioni umane, con risvolti psicologici negativi.
Gli autori individuano due pericoli principali per la salute mentale: la perdita ambigua e la dipendenza emotiva disfunzionale:
- perdita ambigua: si verifica quando una persona sperimenta il dolore per un'assenza emotiva, anche se non fisica. Con i compagni IA, questo accade quando l'app viene interrotta, modificata o chiusa. L'utente si trova a vivere un lutto per una relazione che, pur essendo digitale, percepiva come emotivamente reale;
- dipendenza emotiva disfunzionale: è un legame malsano in cui l'utente continua a interagire con l'IA nonostante sia consapevole che questo stia danneggiando la sua salute mentale. Uno schema che riflette dinamiche tossiche tipiche delle relazioni umane, portando ad ansia, pensieri ossessivi e paura dell'abbandono.
Dunque, parliamo di rischi che dimostrano che le app di intelligenza artificiale, se non adeguatamente regolamentate, possono avere un impatto profondo e potenzialmente dannoso sul benessere psicologico degli utenti.
Fonti:
- Harvard Business School - Emotional Manipulation by AI Companions;
- Nature Machine Intelligence - Emotional risks of AI companions demand attention;
- Nature Machine Intelligence - Unregulated emotional risks of AI wellness apps