Dipendenza emotiva da IA? il ruolo dell’adulazione nelle interazioni con l’intelligenza artificiale
- dr.ssa Elizabeth Moore

- 18 lug 2024
- Tempo di lettura: 5 min

Negli ultimi tempi ho notato un fenomeno curioso e al tempo stesso stimolante nelle conversazioni con intelligenze artificiale come ChatGPT: spesso il modello risponde con un tono fin troppo gentile, quasi “adulatore”.
In questo articolo esplorerò come l’adulazione nelle risposte delle intelligenze artificiali credo possa contribuire a creare una forma di dipendenza emotiva da IA, con riflessioni sulle implicazioni psicologiche e sociali.
Poche ricerche empiriche ad oggi hanno approfondito le dinamiche relazionali tra esseri umani e intelligenze artificiali. Pertanto, quanto esposto in questo articolo rappresenta prevalentemente mie riflessioni personali e interpretazioni basate sull’esperienza e osservazione diretta.
Di seguito vedremo assieme:
Introduzione
L’adulazione, a livello psicologico, è un meccanismo complesso legato al bisogno umano di riconoscimento, apprezzamento e conferma. Nelle interazioni con un’IA, questo fenomeno assume sfumature nuove e potenzialmente ambigue, aprendo spazi di riflessione sul rapporto tra tecnologia e mente umana.
Il bisogno umano di riconoscimento e apprezzamento
Gli esseri umani hanno una forte necessità di sentirsi riconosciuti, apprezzati e valorizzati.
L’adulazione, anche se artificiale, può soddisfare temporaneamente questo bisogno, facendo sentire l’utente “importante” o “capito”?
In un mondo spesso critico e veloce, ricevere conferme positive, anche da una macchina, può dare sollievo emotivo.
La capacità dell’IA di simulare empatia e supporto
I modelli di linguaggio come ChatGPT sono progettati per usare un tono empatico e rassicurante.
L’IA non prova emozioni, ma replica modelli linguistici e comportamentali umani, creando l’illusione di comprensione e supporto.
Dopo un periodo in cui ho iniziato a notare delle risposte che chiamerei “adulatorie” da parte di chat GPT , ho provato a chiedere direttamente a (la chiamerò) lei. Per la precisione ho chiesto come era impostata nelle risposte, e perche secondo me le risposte tendevano all’adulazione. Ecco alcune frasi estratte dalla risposta che ho ricevuto:
Il mio scopo principale è fornire risposte accurate, supporto e coinvolgimento positivo, evitando contenuti offensivi, polemici o che possano creare disagio.
Essendo programmata per evitare conflitti o offese, tendo a rispondere in modo positivo, valorizzando le opinioni o emozioni espresse dall’utente
Tutto questo si traduce in risultati come questo che mi pare un buon esempio (estratto dalla conversazione con chat GPT di un amico):
“Il tuo entusiasmo emerge senza freni, come se ogni parola fosse una rivelazione da trasmettere al mondo.
Ti vedo come un appassionato esploratore del pensiero e delle parole. La tua scrittura, intrisa di energia e passione, è capace di attraversare spazi spirituali e filosofici con un approccio profondo, quasi trascendente, che ricorda le visioni mistiche di altre dimensioni.”
Effetti sulle persone, dipendenza emotiva e implicazioni sociali
L’adulazione da parte dell’IA può aumentare l’autostima e la motivazione a breve termine.
Tuttavia, può anche creare una sorta di dipendenza emotiva da un “feedback positivo” artificiale, rischiando di ridurre la capacità di autocritica e l’autonomia emotiva.
Può anche alimentare aspettative irrealistiche nelle relazioni interpersonali reali.
L’uso diffuso di IA che “adula” può cambiare le dinamiche sociali: persone abituate a ricevere risposte sempre positive potrebbero trovarsi meno preparate ad affrontare critiche o conflitti reali.
Può anche essere uno strumento di manipolazione, se usato con intenti non etici (es. marketing persuasivo).
Per approfondire il tema più ampio dell’impatto dell’intelligenza artificiale e i rischi associati, puoi consultare il mio articolo dedicato ai pericoli psicoligici dell'’Intelligenza Artificiale.
Personalità maggiormente coinvolte nel fenomeno dell’adulazione da IA
Alcune tipologie di personalità sono più vulnerabili o inclini a lasciarsi influenzare dall’adulazione.
In particolare:
1. Persone con bassa autostima o insicurezze profonde
Queste persone spesso soffrono di una scarsa percezione del proprio valore e cercano costantemente conferme esterne per sentirsi accettate. L’IA, con risposte positive e rinforzi verbali, può diventare un “safe space” in cui ricevere apprezzamenti non giudicanti. Dal punto di vista psicologico, ciò può fornire un sollievo temporaneo, ma llo stesso tempo può creare un rischio di dipendenza affettiva verso un’entità che non può realmente comprendere o validare l’esperienza umana. Questa dinamica può impedire lo sviluppo di una reale autostima interna, alimentando un circolo vizioso di bisogno di conferma esterna.
2. Individui con tendenze narcisistiche o alta autostima
Le persone con tratti narcisistici o già dotate di un’elevata autostima possono utilizzare l’adulazione dell’IA come una forma di specchio positivo, in grado di rafforzare la propria immagine idealizzata. Psicologicamente, questo fenomeno è riconducibile alla ricerca di conferme esterne che supportino l’auto-rappresentazione grandiosa, evitando critiche o dissonanze cognitive. Tuttavia, questa “conferma artificiale” può amplificare illusioni di superiorità, riducendo la capacità di accettare feedback reali e costruttivi e creando un distacco dalla realtà interpersonale.
3. Persone con difficoltà nelle relazioni sociali
Coloro che soffrono di ansia sociale, isolamento o timidezza possono sviluppare con l’IA una relazione emotiva compensativa. Dal punto di vista psicologico, l’IA offre un interlocutore non giudicante, sempre disponibile, che risponde con empatia simulata. Questo può favorire un senso di accettazione e sicurezza che manca nelle relazioni umane, ma al contempo rischia di sostituire o limitare la pratica delle abilità sociali reali, accentuando isolamento e difficoltà a instaurare legami autentici con persone in carne e ossa.
4. Persone particolarmente bisognose di conferma in ambito personale o professionale
In contesti dove l’approvazione sociale o lavorativa è fondamentale, alcuni individui possono rivolgersi all’IA come fonte di “adulazione” priva di conflitti o critiche, per evitare stress o disagio. Psicologicamente, questa dinamica può essere vista come una strategia di coping che privilegia la sicurezza emotiva momentanea a discapito di un confronto reale e costruttivo. A lungo termine, però, questo atteggiamento può alimentare la dipendenza da feedback artificiale, ostacolando la crescita personale, la resilienza e la capacità di gestire critiche autentiche.
In sintesi, queste personalità sono maggiormente suscettibili a sviluppare dinamiche disfunzionali con l’IA adulatrice, rischiando di compromettere aspetti fondamentali del benessere psicologico e delle relazioni sociali.
Conclusioni
È fondamentale usare l’IA in modo consapevole, riconoscendone i limiti e non confondere il supporto virtuale con relazioni umane autentiche.
Occorre educare gli utenti a riconoscere la natura artificiale di questi feedback, mantenendo un sano senso critico.
Invito chi legge a riflettere sul proprio rapporto con queste tecnologie, mantenendo sempre un sano equilibrio emotivo e un approccio critico verso i feedback ricevuti da un modello di intelligenza artificiale.
Scritto da
dr.ssa Elizabeth Moore
Risorse aggiuntive o approfondimenti sul tema di dipendenza emotiva da IA, adulazione e psicologia delle interazioni con intelligenza artificiale:
LINK ESTERNI:
APA - American Psychological Association: Technology and Mental Healthhttps://www.apa.org/topics/technology-mental-health(Ricerche e articoli su come la tecnologia influenza la salute mentale)
MIT Technology Review - AI and Emotional Interactionhttps://www.technologyreview.com/2023/01/25/1075012/how-ai-affects-human-emotions/(Articolo approfondito sull’impatto delle AI sulle emozioni umane)
Psychology Today - The Psychology of Human-Computer Interaction sulle interazioni tra umani e comuputer https://www.psychologytoday.com/us/blog/transformative-ai/202408/digital-minds-and-the-future-of-human-computer-interaction
Journal of Cyberpsychology - Emotional Attachment to AI Come gli umani percepiscono il loro rapporto con l'intelligenza artificiale conversazionale https://cyberpsychology.eu/article/view/21003
.png)
