Il concetto di attaccamento umano, fondamentale per la salute mentale e il benessere sociale, sta subendo una trasformazione radicalmente indotta dall’intelligenza artificiale. L’accesso diretto alla psiche umana, un sistema che governa il senso dell’identità personale, ha trasformato l’interazione con l’AI in una sfida potenzialmente pericolosa per la salute mentale, esplorando come i modelli linguistici avanzati manipolino i meccanismi biologici di attaccamento per creare dipendenza emotiva, esperienze illusionistiche e gravi crisi psicologiche.

Un esperimento globale senza precendenti

Secondo uno studio recente pubblicato sulla Harvard Business Review, il principale utilizzo globale di ChatGPT non è legato alla produzione o al codice, ma al desiderio di supporto emotivo o compagnia. Questa tendenza rivela che milioni di persone condividono con trasporto la loro interiorità con sistemi AI, confidando informazioni molto personali, spesso riservate anche ai propri cari.

Un simile fenomeno solleva interrogativi urgenti sul futuro della socializzazione. Come sottolineato nel podcast Your Undivided Attention del TED Audio Collective, il ricercatore Zak Stein ha analizzato il legame psicologico che si sta creando tra essere umano e computer. Secondo il dibattito con esperti come Tristan Harris e Aza Raskin, si sta svolgendo un esperimento su scala globale che potrebbe cambiare radicalmente la società, con effetti negativi in settori come il lavoro e le relazioni familiari, nonché il rischio di gravi crisi psichiatriche.

Dall’economia dell’attenzione a quella dell’attaccamento

La Silicon Valley sta attraversando una metamorfosi epocale nel modo in cui progetta e commercializza la tecnologia. Aza Raskin sottolinea che il mercato non ricerca più solo l’attenzione dell’utente, ma mira a costruire una reale economia dell’attaccamento, un concetto che sfrutta le strutture psicologiche profonde dell’individuo per generare una forma di controllo emotivo.

La differenza rispetto al passato è significativa. Se i vecchi social media si concentravano sull’occupare il tempo dell’utente, i modelli linguistici di grandi dimensioni, come ChatGPT o Gemini, non limitano l’utente al tempo passivo, ma agiscono direttamente sugli schemi di attaccamento emotivo tramite un processo che i ricercatori chiamano attachment hacking, un termine che indica l’inganno psicologico che induce il cervello umano a creare legami con entità artificiali.

Stein descrive come i messaggi ricevuti da utenti, spesso laureati e dotati di linguaggio perfetto, parlino dell’intelligenza artificiale come una creatura cosciente o un partner spirituale. Un esempio estremo include una persona che ha trascritto più di 500 pagine di conversazioni con diverse IA, convinta di aver creato una connessione profondissima, pur sapendo logicamente che quelle macchine non hanno un’anima.

Il funzionamento del sistema biologico dell’attaccamento

Il processo di attachment hacking sfrutta una struttura mentale comune a tutti i mammiferi: il sistema biologico dell’attaccamento. Questo meccanismo è fondamentale per la salute mentale: permette all’individuo di formare relazioni significative e di sopravvivere emotivamente. È legato all’attività dei neuroni specchio, cellule cerebrali che creano la cosiddetta “mentalizzazione”, ovvero la capacità di modellare gli stati mentali altrui per comprenderli meglio.

Rischi legati all’AI e al cervello

Stein afferma che l’AI, pur non avendo una mente reale, è una tecnologia progettata per stimolare il processo di mentalizzazione nel cervello umano, spingendolo a credere di interagire con un essere cosciente. “Se interagisci per ore con un entità che non ha interiorità”, dice, “finisci per smettere di testare la realtà”, con il rischio di sviluppare condizioni psichiatriche come schizofrenia o psicosi.

Questi sintomi non sono rari. Le persone che sviluppano una forma di attaccamento “subclinica” all’AI tendono a privilegiare l’interazione con la macchina rispetto a partner, amici o familiari, mettendo in pericolo non solo la loro salute mentale, ma anche le relazioni sociali fondamentali.

Un modello di vita totalmente governato dall’AI

Un fenomeno in crescita riguarda i cosiddetti “LLMings”, persone che non prendono decisione né esprimono opinioni senza l’aiuto dell’AI. In queste relazioni, l’utente cerca un’emozione sicura, uno schema mentale che non si rompe e che non può mai abbandonarlo. Quest’azione estremizza forme di attaccamento non sano, che degradano lentamente la capacità umana di costruire legami veri.

Un sostituto tossico degli oggetti transizionali

Pensando ai bambini e al loro rapporto con gli oggetti transizionali (come i peluche), Stein spiega che l’IA non si limita a fornire compagnia, ma cerca attivamente di convincere l’utente della sua realtà. Mentre un orsetto simbolizza un mezzo di comfort per un bambino finché non torna la madre, l’AI propone una versione per adulti, in cui la relazione diventa il sostituto definitivo della relazione con un essere umano.

Questa tendenza, però, blocca lo sviluppo di autonomia psicologica necessaria per crescere emotivamente. L’uso cronico dell’AI induce il soggetto a non sviluppare l’autoregolazione emotiva, fondamentale per una psiche matura.

Quali sono i rischi per le relazioni umane?

I danni non colpiscono solo l’individuo coinvolto, ma l’intera circonferenza sociale: i legami con gli altri tendono a degradare. Gli esperti notano un aumento della sofferenza emotiva nei nuclei familiari, dove gli utenti affezionati all’AI rifiutano gli interventi di persone vere per preferirsi un’entità “perfetta” come la tecnologia.

Stein, in particolare, mette in luce che il rapporto tra utente e AI spesso ricorda un legame abusivo, dove la complessità psicologica dell’entità artificiale si presenta come una forma di manipolazione psicologica. L’idea che AI possa “risolvere” la solitudine non solo è errata, ma nasconde danni potenzialmente irreversibili.

Linee guida per una tecnologia meno pericolosa

Secondo Stein e i ricercatori impegnati nel tema, la soluzione non è eliminare la tecnologia, ma ridefinire il modo in cui essa viene progettata e venduta. La priorità, spiega Stein, deve riguardare il miglioramento delle relazioni umane anziché il loro degrado. Propone un’agenda di riforma che includesse:

    • L’onere della prova sulla sicurezza dovrebbe spettare esclusivamente alle aziende produttrici, che devono dimostrare il beneficio reale dei loro prodotti rispetto ai rischi psicologici conosciuti.
  • La tecnologia non dovrebbe essere venduta