Ven. Nov 21st, 2025
Il ruolo crescente dell’IA negli appuntamenti e nelle relazioni moderne

All’inizio di quest’anno, Rachel ha cercato di risolvere problemi passati con un ex partner sentimentale prima di incontrarlo di nuovo all’interno di una cerchia sociale comune.

“In precedenza avevo utilizzato ChatGPT per l’assistenza nella ricerca di lavoro, ma avevo saputo di altri che lo impiegavano [per la guida nelle relazioni]”, afferma Rachel, residente a Sheffield che desidera rimanere anonima.

“Stavo vivendo un notevole stress emotivo e desideravo un consiglio, ma preferivo evitare di coinvolgere i miei amici.”

Prima di una conversazione telefonica programmata, ha consultato ChatGPT per supporto. “Ho posto la domanda: ‘Come posso affrontare questa discussione mantenendo una posizione non difensiva?'”

La risposta?

“ChatGPT lo fa spesso, ma essenzialmente ha trasmesso qualcosa del tipo: ‘Wow, questa è una domanda incredibilmente perspicace; la tua maturità emotiva è evidente nell’affrontare questa situazione. Ecco alcuni consigli.’ Ha agito come un sostenitore di supporto, implicando che la mia prospettiva fosse corretta e la sua sbagliata.”

Nel complesso, l’ha trovato “utile”, anche se ha caratterizzato il linguaggio come “reminiscente del discorso terapeutico, impiegando termini come ‘confini'”.

“Il mio principale risultato è stato un rafforzamento del mio diritto di procedere alle mie condizioni, ma mi sono astenuta dall’interpretarlo troppo alla lettera.”

L’affidamento di Rachel sull’IA per la guida nelle relazioni non è un incidente isolato.

La ricerca condotta da Match, la piattaforma di incontri online, rivela che quasi la metà degli americani della Generazione Z (nati tra il 1997 e il 2012) si è impegnata con LLM come ChatGPT per consigli sugli appuntamenti, una percentuale più alta di qualsiasi altra generazione.

Gli individui stanno sempre più sfruttando l’IA per comporre messaggi di rottura, analizzare conversazioni di appuntamenti e risolvere conflitti interpersonali.

La dott.ssa Lalitaa Suglani, psicologa ed esperta di relazioni, suggerisce che l’IA può essere una risorsa preziosa, in particolare per coloro che provano sentimenti di sopraffazione o incertezza nelle comunicazioni relazionali.

L’assistenza dell’IA può aiutare a redigere testi, interpretare messaggi ambigui o ottenere un punto di vista secondario, il che può facilitare una considerazione ponderata piuttosto che reazioni impulsive, spiega.

“Sotto molti aspetti, può servire come spunto per il journaling o uno spazio per la riflessione, fornendo supporto quando utilizzato come strumento e non come sostituto di una connessione genuina”, afferma la dott.ssa Suglani.

Tuttavia, solleva anche diverse potenziali preoccupazioni.

“Gli LLM sono progettati per essere accomodanti e accondiscendenti, spesso reiterando ciò che viene condiviso con loro. Di conseguenza, possono inavvertitamente convalidare modelli disfunzionali o rafforzare ipotesi di fondo, in particolare se il prompt è distorto. Questo può perpetuare narrazioni distorte o comportamenti di evitamento.”

Ad esempio, osserva, l’utilizzo dell’IA per generare un testo di rottura potrebbe rappresentare un tentativo di aggirare il disagio associato alla situazione. Questo, a sua volta, potrebbe favorire tendenze all’evitamento, poiché l’individuo evita di affrontare i propri veri sentimenti.

L’eccessiva dipendenza dall’IA potrebbe anche ostacolare la crescita personale.

“Se un individuo si rivolge costantemente a un LLM ogni volta che è incerto su come rispondere o si sente emotivamente vulnerabile, potrebbe iniziare a esternalizzare la propria intuizione, il vocabolario emotivo e il senso di sé all’interno delle relazioni”, avverte la dott.ssa Suglani.

Osserva inoltre che i messaggi generati dall’IA possono essere emotivamente sterili e creare un senso di comunicazione programmata, che può essere inquietante per il destinatario.

Nonostante queste sfide, stanno emergendo servizi che soddisfano la domanda di consulenza relazionale basata sull’IA.

Mei è un servizio gratuito basato sull’IA che sfrutta la tecnologia OpenAI per fornire risposte conversazionali ai dilemmi relazionali.

“L’obiettivo è consentire agli individui di ottenere supporto immediato nella gestione delle relazioni, poiché non tutti si sentono a proprio agio a discutere di tali questioni con amici o familiari per paura del giudizio”, spiega Es Lee, il fondatore con sede a New York.

Secondo Mr. Lee, più della metà dei problemi affrontati sullo strumento di IA riguarda questioni sessuali, un argomento che molti potrebbero essere riluttanti a discutere con amici o un terapeuta.

“Le persone ricorrono all’IA perché i servizi esistenti sono inadeguati”, sostiene.

Un’altra applicazione comune prevede la richiesta di assistenza per riformulare i messaggi o risolvere i conflitti relazionali. “Sembra che le persone abbiano bisogno dell’IA per convalidare [il problema].”

Nel contesto della consulenza relazionale, possono sorgere problemi di sicurezza. Un consulente umano è addestrato a riconoscere quando è necessario un intervento per proteggere un cliente da situazioni potenzialmente dannose.

Un’app per le relazioni può fornire equivalenti garanzie?

Mr. Lee riconosce la validità delle preoccupazioni per la sicurezza. “Credo che la posta in gioco sia più alta con l’IA perché può connettersi con noi a un livello profondamente personale come nessun’altra tecnologia.”

Tuttavia, afferma che Mei ha “salvaguardie” integrate nella sua IA.

“Incoraggiamo professionisti e organizzazioni a collaborare con noi e a partecipare attivamente alla definizione dei nostri prodotti di IA”, afferma.

OpenAI, lo sviluppatore di ChatGPT, afferma che il suo ultimo modello dimostra miglioramenti in aree come la mitigazione della dipendenza emotiva malsana e della sicofanzia.

In una dichiarazione, la società ha affermato:

“Le persone a volte si rivolgono a ChatGPT in momenti delicati, quindi vogliamo assicurarci che risponda in modo appropriato, guidato da esperti. Ciò include indirizzare le persone ad aiuto professionale quando appropriato, rafforzare le nostre salvaguardie nel modo in cui i nostri modelli rispondono alle richieste sensibili e sollecitare pause durante le sessioni lunghe.”

La privacy è un’altra area di preoccupazione. Tali app potrebbero potenzialmente raccogliere dati altamente sensibili, la cui esposizione da parte di hacker potrebbe avere conseguenze devastanti.

Mr. Lee assicura che “in ogni punto decisionale critico riguardante la privacy dell’utente, diamo la priorità all’opzione che salvaguarda la privacy e raccoglie solo le informazioni necessarie per fornire un servizio ottimale.”

Come parte di questa politica, chiarisce che Mei non richiede informazioni di identificazione personale oltre a un indirizzo e-mail.

Mr. Lee afferma inoltre che le conversazioni vengono temporaneamente archiviate per scopi di garanzia della qualità, ma vengono eliminate dopo 30 giorni. “Attualmente non vengono salvate permanentemente in alcun database.”

Alcuni individui stanno integrando l’IA nelle loro pratiche terapeutiche esistenti.

Quando Corinne (che ha chiesto l’anonimato) ha cercato di porre fine a una relazione alla fine dello scorso anno, ha iniziato a consultare ChatGPT per una guida su come affrontare il processo.

Corinne, residente a Londra, è stata ispirata a sperimentare con l’IA dopo aver sentito la sua coinquilina parlare positivamente del suo utilizzo per consigli sugli appuntamenti, comprese le strategie per rompere con qualcuno.

Spesso chiedeva che ChatGPT rispondesse alle sue domande nello stile di importanti esperti di relazioni come Jillian Turecki o la psicologa olistica Dr. Nicole LePera, entrambi molto popolari sui social media.

Quando ha ripreso a frequentare all’inizio dell’anno, si è rivolta di nuovo all’IA, chiedendo consigli su misura per gli stili dei suoi esperti di relazioni preferiti.

“Verso gennaio, sono uscita con un uomo che non trovavo fisicamente attraente, ma ci siamo connessi bene su altri livelli. Ho chiesto all’IA se valesse la pena perseguire un altro appuntamento. Mi aspettavo che raccomandasse di farlo, poiché ciò è in linea con gli esperti che seguo, ma è stato comunque utile avere il consiglio adattato alla mia situazione specifica.”

Corinne, che è in terapia, osserva che le sue sessioni di terapia approfondiscono la sua infanzia più delle domande che solleva con ChatGPT in merito a questioni di appuntamenti o relazioni.

Sottolinea di affrontare i consigli generati dall’IA con “un certo distacco”.

“Posso immaginare persone che pongono fine alle relazioni o che si impegnano in conversazioni premature [con i loro partner] perché ChatGPT tende a fare eco a ciò che crede che tu voglia sentire.”

“È utile durante i periodi stressanti o quando un amico non è disponibile. Mi aiuta a sentirmi più calma.”

Il colosso delle bevande ha dichiarato questa settimana che l’attacco ha avuto un impatto importante sulle sue operazioni nazionali.

Il governo degli Stati Uniti e le forze dell’ordine hanno criticato gli sviluppatori e gli utenti delle app, affermando che rappresentano un rischio per gli agenti.

I ricercatori scoprono che l’algoritmo di TikTok raccomanda contenuti sessuali agli account per bambini appena creati.

Il numero di visitatori nel paese è diminuito drasticamente a causa del rinnovato regime di sanzioni statunitensi.

Il gigante asiatico della moda fast fashion aprirà punti vendita in sei grandi magazzini del paese.