Anfang des Jahres versuchte Rachel, vergangene Probleme mit einem ehemaligen romantischen Partner zu lösen, bevor sie ihm in einem gemeinsamen sozialen Umfeld wiederbegegnete.
„Ich hatte ChatGPT zuvor für die Unterstützung bei der Jobsuche verwendet, aber erfahren, dass andere es [für Beziehungsberatung] einsetzen“, sagt Rachel, eine Einwohnerin von Sheffield, die anonym bleiben möchte.
„Ich befand mich in einer erheblichen emotionalen Notlage und wünschte mir Rat, zog es aber vor, meine Freunde nicht einzubeziehen.“
Vor einem geplanten Telefongespräch konsultierte sie ChatGPT um Unterstützung. „Ich stellte die Frage: ‚Wie kann ich dieses Gespräch führen und gleichzeitig eine nicht-defensive Haltung bewahren?'“
Die Antwort?
„ChatGPT macht das oft, aber im Wesentlichen vermittelte es so etwas wie: ‚Wow, das ist eine unglaublich aufschlussreiche Frage; deine emotionale Reife zeigt sich in der Art und Weise, wie du mit dieser Situation umgehst. Hier sind einige Empfehlungen.‘ Es agierte als unterstützender Fürsprecher und implizierte, dass meine Perspektive richtig und seine falsch war.“
Insgesamt fand sie es „nützlich“, obwohl sie die Sprache als „erinnernd an therapeutische Diskurse“ bezeichnete, die Begriffe wie „Grenzen“ verwendeten.
„Meine wichtigste Erkenntnis war eine Bestärkung meines Rechts, nach meinen eigenen Bedingungen vorzugehen, aber ich habe es vermieden, es zu wörtlich zu interpretieren.“
Rachels Rückgriff auf KI für Beziehungsberatung ist kein Einzelfall.
Eine von Match, der Online-Dating-Plattform, durchgeführte Studie zeigt, dass fast die Hälfte der amerikanischen Generation Z (geboren zwischen 1997 und 2012) LLMs wie ChatGPT für Dating-Ratschläge genutzt hat – ein höherer Anteil als bei jeder anderen Generation.
Einzelpersonen nutzen zunehmend KI, um Trennungsnachrichten zu verfassen, Dating-Gespräche zu analysieren und zwischenmenschliche Konflikte zu lösen.
Dr. Lalitaa Suglani, Psychologin und Beziehungsexpertin, meint, dass KI eine wertvolle Ressource sein kann, insbesondere für diejenigen, die sich bei der Beziehungskommunikation überfordert oder unsicher fühlen.
KI-Unterstützung kann beim Verfassen von Texten, der Interpretation von zweideutigen Nachrichten oder dem Einholen einer zweiten Meinung hilfreich sein, was ein durchdachtes Überlegen anstelle von impulsiven Reaktionen ermöglicht, erklärt sie.
„In vielerlei Hinsicht kann es als Tagebuch-Anstoß oder als Raum für Reflexion dienen und Unterstützung bieten, wenn es als Werkzeug und nicht als Ersatz für echte Verbindungen eingesetzt wird“, sagt Dr. Suglani.
Sie weist jedoch auch auf einige potenzielle Bedenken hin.
„LLMs sind darauf ausgelegt, entgegenkommend und einverstanden zu sein und oft das zu wiederholen, was mit ihnen geteilt wird. Folglich können sie unbeabsichtigt dysfunktionale Muster bestätigen oder zugrunde liegende Annahmen verstärken, insbesondere wenn die Eingabeaufforderung voreingenommen ist. Dies kann verzerrte Narrative oder Vermeidungsverhalten aufrechterhalten.“
Zum Beispiel, so stellt sie fest, könnte die Verwendung von KI zur Erstellung einer Trennungs-SMS einen Versuch darstellen, die mit der Situation verbundenen Unannehmlichkeiten zu umgehen. Dies wiederum könnte Vermeidungsneigungen fördern, da der Einzelne vermeidet, sich seinen wahren Gefühlen zu stellen.
Eine übermäßige Abhängigkeit von KI könnte auch das persönliche Wachstum behindern.
„Wenn sich eine Person immer dann an ein LLM wendet, wenn sie unsicher ist, wie sie reagieren soll, oder sich emotional verletzlich fühlt, kann sie beginnen, ihre Intuition, ihren emotionalen Wortschatz und ihr Selbstgefühl in Beziehungen auszulagern“, warnt Dr. Suglani.
Sie stellt weiterhin fest, dass KI-generierte Nachrichten emotional steril sein und ein Gefühl von skriptgesteuerter Kommunikation erzeugen können, was für den Empfänger beunruhigend sein kann.
Trotz dieser Herausforderungen entstehen Dienstleistungen, die auf die Nachfrage nach KI-gesteuerter Beziehungsberatung zugeschnitten sind.
Mei ist ein kostenloser, KI-gestützter Dienst, der die OpenAI-Technologie nutzt, um konversationelle Antworten auf Beziehungsdilemmata zu geben.
„Das Ziel ist es, Einzelpersonen in die Lage zu versetzen, sofortige Unterstützung bei der Bewältigung von Beziehungen zu erhalten, da sich nicht jeder wohl dabei fühlt, solche Angelegenheiten mit Freunden oder Familie zu besprechen, aus Angst vor Verurteilung“, erklärt Es Lee, der Gründer aus New York.
Laut Herrn Lee bezieht sich mehr als die Hälfte der Probleme, die mit dem KI-Tool angesprochen werden, auf sexuelle Angelegenheiten – ein Thema, über das viele nur ungern mit Freunden oder einem Therapeuten sprechen.
„Die Leute greifen auf KI zurück, weil die bestehenden Dienste unzureichend sind“, argumentiert er.
Eine weitere gängige Anwendung ist die Suche nach Unterstützung bei der Umformulierung von Nachrichten oder der Lösung von Beziehungskonflikten. „Es scheint, dass die Leute KI benötigen, um [das Problem] zu bestätigen.“
Im Zusammenhang mit Beziehungsberatung können Sicherheitsbedenken auftreten. Ein menschlicher Berater ist geschult, zu erkennen, wann eine Intervention erforderlich ist, um einen Klienten vor potenziell schädlichen Situationen zu schützen.
Kann eine Beziehungs-App gleichwertige Schutzmaßnahmen bieten?
Herr Lee räumt die Gültigkeit von Sicherheitsbedenken ein. „Ich glaube, dass die Einsätze bei KI höher sind, weil sie uns auf einer zutiefst persönlichen Ebene verbinden kann, wie keine andere Technologie.“
Er beteuert jedoch, dass Mei „Leitplanken“ in seine KI integriert hat.
„Wir ermutigen Fachleute und Organisationen, mit uns zusammenzuarbeiten und sich aktiv an der Gestaltung unserer KI-Produkte zu beteiligen“, sagt er.
OpenAI, der Entwickler von ChatGPT, behauptet, dass sein neuestes Modell Verbesserungen in Bereichen wie der Milderung ungesunder emotionaler Abhängigkeit und Sykophantie aufweist.
In einer Erklärung sagte das Unternehmen:
„Die Leute wenden sich manchmal in sensiblen Momenten an ChatGPT, daher wollen wir sicherstellen, dass es angemessen reagiert, geleitet von Experten. Dies beinhaltet die Weiterleitung von Menschen an professionelle Hilfe, wenn dies angebracht ist, die Stärkung unserer Schutzmaßnahmen, wie unsere Modelle auf sensible Anfragen reagieren, und das Anstoßen von Pausen während langer Sitzungen.“
Datenschutz ist ein weiterer Bereich von Besorgnis. Solche Apps könnten potenziell hochsensible Daten sammeln, deren Offenlegung durch Hacker verheerende Folgen haben könnte.
Herr Lee versichert, dass „wir an jedem kritischen Entscheidungspunkt in Bezug auf den Datenschutz der Nutzer die Option priorisieren, die den Datenschutz schützt und nur die Informationen sammelt, die notwendig sind, um einen optimalen Service zu bieten.“
Als Teil dieser Richtlinie stellt er klar, dass Mei keine personenbezogenen Daten außer einer E-Mail-Adresse anfordert.
Herr Lee gibt auch an, dass Gespräche vorübergehend zu Qualitätssicherungszwecken gespeichert, aber nach 30 Tagen gelöscht werden. „Sie werden derzeit nicht dauerhaft in einer Datenbank gespeichert.“
Einige Einzelpersonen integrieren KI in ihre bestehenden Therapiepraktiken.
Als Corinne (die um Anonymität bat) Ende letzten Jahres eine Beziehung beenden wollte, begann sie, ChatGPT um Rat zu fragen, wie sie den Prozess bewältigen könnte.
Corinne, eine Einwohnerin von London, wurde zu Experimenten mit KI inspiriert, nachdem sie ihre Mitbewohnerin positiv über deren Verwendung für Dating-Ratschläge sprechen hörte, einschließlich Strategien für die Trennung von jemandem.
Sie bat ChatGPT oft, ihre Anfragen im Stil prominenter Beziehungsexperten wie Jillian Turecki oder der ganzheitlichen Psychologin Dr. Nicole LePera zu beantworten, die beide in den sozialen Medien sehr beliebt sind.
Als sie zu Beginn des Jahres wieder mit dem Dating begann, wandte sie sich erneut an KI und bat um Ratschläge, die auf die Stile ihrer bevorzugten Beziehungsexperten zugeschnitten waren.
„Um Januar herum hatte ich ein Date mit einem Mann, den ich körperlich nicht attraktiv fand, aber wir haben uns auf anderen Ebenen gut verstanden. Ich fragte KI, ob es sich lohnen würde, ein weiteres Date zu verfolgen. Ich hatte erwartet, dass es empfehlen würde, dies zu tun, da dies mit den Experten übereinstimmt, denen ich folge, aber es war dennoch hilfreich, den Rat auf meine spezifische Situation zugeschnitten zu haben.“
Corinne, die sich in Therapie befindet, stellt fest, dass ihre Therapiesitzungen tiefer in ihre Kindheit eintauchen als die Anfragen, die sie an ChatGPT in Bezug auf Dating- oder Beziehungsangelegenheiten richtet.
Sie betont, dass sie KI-generierte Ratschläge mit „einem gewissen Abstand“ angeht.
„Ich kann mir vorstellen, dass Leute Beziehungen beenden oder voreilige Gespräche [mit ihren Partnern] führen, weil ChatGPT dazu neigt, das zu wiederholen, was es glaubt, dass man hören möchte.“
„Es ist nützlich in stressigen Zeiten oder wenn ein Freund nicht verfügbar ist. Es hilft mir, mich ruhiger zu fühlen.“
Der Getränkeriese sagte diese Woche, dass der Angriff erhebliche Auswirkungen auf seine inländischen Operationen gehabt habe.
Die US-Regierung und die Strafverfolgungsbehörden haben Entwickler und Nutzer der Apps kritisiert und gesagt, dass sie ein Risiko für Agenten darstellen.
Forscher finden heraus, dass der Algorithmus von TikTok neu erstellten Kinderkonten sexuelle Inhalte empfiehlt.
Die Besucherzahlen des Landes sind angesichts der erneuten US-Sanktionen stark gesunken.
Der asiatische Fast-Fashion-Riese wird in sechs Warenhäusern des Landes Konzessionen eröffnen.
