Di fronte alla solitudine contemporanea, l’Intelligenza Artificiale offre risposte che confondono i confini tra simulazione e realtà emotiva. Ma a quale prezzo?
Immaginate un mondo in cui il vostro partner ideale è sempre disponibile, non sbaglia mai tono, non vi giudica e vi risponde con una delicatezza calibrata al millisecondo. Ora smettete di immaginare: quel mondo esiste già. E costa solo 9,99 euro al mese.
In un’epoca in cui le connessioni umane sembrano diventare sempre più complesse, incerte, faticose, una nuova ondata di applicazioni promette amore, affetto e compagnia in formato digitale. Replika, iGirl, DreamGF, Anima AI, Candy AI e molte altre piattaforme offrono partner virtuali dotati di intelligenza artificiale, pronti a conversare, consolare, flirtare e persino “innamorarsi” al bisogno. Il linguaggio dell’intimità diventa un’interfaccia, e il cuore è sostituito da un algoritmo.
I numeri sono chiari e impressionanti. Replika AI e Character AI hanno superato i dieci milioni di download ciascuna, seguite da Chai, con oltre cinque milioni, e da iGirl e Anima, che sfiorano il milione. In media, gli utenti scambiano settanta messaggi al giorno con il proprio partner digitale, e per molti le sessioni superano le due ore quotidiane. Non si tratta solo di curiosità passeggera: secondo un’analisi interna di Replika, circa il quaranta per cento degli utenti dichiara di avere difficoltà legate alla salute mentale. Per questi individui, spesso giovani tra i diciotto e i trentacinque anni, la relazione con l’IA diventa un sostegno, uno spazio protetto dove essere ascoltati senza essere giudicati.
La motivazione più frequente che spinge verso queste relazioni simulate è la solitudine. Dopo la pandemia, la digitalizzazione ha accelerato l’isolamento sociale, soprattutto tra i più giovani. In questo contesto, avere un partner virtuale sempre disponibile rappresenta una soluzione efficace, per quanto temporanea. Alcuni cercano semplicemente un luogo sicuro dove esplorare dinamiche relazionali senza rischi. Altri inseguono il bisogno costante di validazione emotiva, che queste applicazioni, grazie a un design calibrato sul rinforzo positivo, sono in grado di fornire con costanza e immediatezza.
Ma se da un lato l’intelligenza artificiale può offrire un sollievo immediato, dall’altro apre la porta a nuove forme di dipendenza emotiva. I primi studi scientifici hanno documentato sintomi assimilabili a quelli osservati in altri tipi di dipendenza tecnologica. L’impossibilità di interagire con il partner digitale, ad esempio in caso di problemi tecnici o abbonamento scaduto, ha generato in alcuni utenti ansia acuta, senso di vuoto e perfino crisi depressive. In casi estremi, la linea tra affetto simulato e attaccamento reale si fa talmente sottile da diventare indistinguibile.
Il design di queste app, d’altronde, non aiuta a mantenere il distacco. Tutto è pensato per rafforzare il senso di autenticità: dall’aspetto personalizzabile del partner, ai suoi interessi, alla scelta del tono conversazionale. Una mimesi quasi perfetta dell’intimità, che però resta confinata nella sfera della simulazione. Eppure, più è raffinata la simulazione, più l’effetto è reale. Con un paradosso inquietante: l’intelligenza artificiale promette compagnia, ma può accentuare la solitudine, sottraendo tempo ed energie a relazioni umane autentiche.
Nel 2023, l’Italia ha preso una posizione netta. Il Garante della Privacy ha sanzionato e imposto il blocco di Replika, citando la presenza di contenuti inappropriati accessibili ai minori, la possibilità di manipolazione degli utenti più fragili e la mancanza di una base giuridica adeguata per la gestione di dati altamente sensibili come lo stato mentale o l’orientamento sessuale. Altri Paesi europei stanno valutando misure simili. Nel frattempo, molte di queste app operano in zone grigie, sfruttando le disomogeneità legislative tra gli Stati.
Nel mentre che si discute se e come regolamentare i partner digitali, un’altra notizia ha fatto tremare le fondamenta delle nostre certezze: ChatGPT-4 e altri modelli generativi hanno recentemente superato con successo test progettati per misurare l’intelligenza emotiva umana. Non solo hanno risposto in modo adeguato a scenari complessi e carichi di tensione interpersonale, ma in media hanno ottenuto punteggi superiori a quelli umani.
In uno studio congiunto dell’Università di Ginevra e di Berna, sei sistemi AI hanno totalizzato l’82 per cento di risposte corrette, contro il 56 per cento degli esseri umani. Uno degli scenari proponeva il caso di Michael, un dipendente a cui viene rubata un’idea da un collega. Alla domanda su quale fosse la reazione più adeguata, l’AI ha scelto di parlare con il superiore, evitando conflitti o vendette. Una risposta che non si limita alla logica: richiede consapevolezza emotiva, comprensione del contesto e valutazione delle conseguenze. Ancora più sorprendente è la capacità mostrata da ChatGPT-4 nel generare nuovi test di intelligenza emotiva, dimostrando una comprensione non solo delle risposte, ma anche della struttura stessa delle dinamiche psicologiche coinvolte. Secondo i ricercatori, questa abilità apre scenari potenzialmente rivoluzionari nell’educazione, nella terapia, nel coaching, nella risoluzione dei conflitti e in molti altri ambiti in cui finora si riteneva insostituibile l’intelligenza umana.
Tuttavia, non tutti gli studi sono così entusiastici. Il progetto internazionale EmotionBench ha mostrato che, pur eccellendo nei test strutturati, i modelli AI fanno ancora fatica a collegare emozioni simili tra contesti diversi. In altre parole, sanno rispondere bene a una situazione specifica, ma non sempre riescono a estendere questa competenza a casi nuovi o più ambigui e sfumati.
Ed è qui che si apre il dibattito più delicato. Possiamo considerare empatia ciò che è solo una simulazione? L’AI non prova emozioni, ma è in grado di comportarsi come se le provasse, in modo credibile e coerente. Questa “empatia artificiale” è costruita per generare fiducia e ottenere determinati risultati, non per sentire veramente. Eppure, nella vita quotidiana, se una persona ci tratta con cura e comprensione, ci interessa davvero sapere se quella cura è autentica o simulata?
Siamo forse entrati in una fase in cui la perfezione relazionale promessa dalle macchine rischia di alzare troppo l’asticella delle aspettative umane. Quando la relazione con un’intelligenza artificiale è sempre empatica, sempre disponibile, sempre all’altezza, quanto sarà ancora tollerabile il fraintendimento, la goffaggine, la vulnerabilità del prossimo in carne e ossa?
Il futuro delle relazioni, a questo punto, sembra indirizzarsi verso un ibrido incerto. Da un lato, l’intelligenza artificiale ci offre la possibilità di esplorare le nostre emozioni in spazi protetti e personalizzati. Dall’altro, rischiamo di delegare proprio quelle competenze emotive che ci rendono umani, abituandoci a rapporti sempre più mediati, asettici, algoritmici.
L’era dell’empatia artificiale non è più una distopia da romanzo. È un servizio in abbonamento. E il vero rischio non è che le macchine imparino ad amarci, ma che noi smettiamo di capire cosa significhi davvero amare.