Logo
Topthema

KI-Chat-Bot und ich: Ziemlich beste Beziehung

Vor allem junge Leute sehen in den Chat-Bots nicht selten „echte“ Freunde und Partner.

Eine neue Studie der US-amerikanischen Non-Profit-Organisation Common Sense Media hat herausgefunden: Mehr als 70 Prozent der Teenager haben bereits mit einer sogenannten AI Companion-App gesprochen. Der englische Begriff Artificial Intelligence (AI) bedeutet übersetzt Künstliche Intellingenz (KI). Dahinter verbirgt sich ein Teilgebiet der Informatik. Vereinfacht gesagt, werden Maschinen dabei so programmiert, dass sie menschliches Denken und Handeln nachahmen, eigenständig lernen können, aber auch Muster erkennen und Entscheidungen treffen. Ein aktuelles Beispiel ist „Ani“, ein KI-Charakter des Unternehmens xAI.
Die Studie aus dem Jahr 2025 sagt auch: 52 Prozent der Teenager nutzen die virtuellen Chat-Freunde regelmäßig. Fast ein Achtel von ihnen hatte „emotionale oder psychische Unterstützung” gesucht, was, hochgerechnet auf die US-Bevölkerung, 5,2 Millionen Jugendlichen entspricht. In einer anderen aktuellen Studie von Forschern der Stanford University gab fast ein Viertel der studentischen Nutzer von Replika, einem KI-Chatbot, an, sich wegen psychischer Probleme an ihn zu wenden. Obwohl es sich um lernende Systeme handelt, fühlt es sich für die jungen Nutzer „echt“ an. Außerdem wird es als Vorteil empfunden, dass die digitalen Begleiter rund um die Uhr zuhören und freundlich sind. Es sind perfekte Gespräche ohne Konflikte – denn die KI animierten Charaktere, oft mit der Optik von Personen, sagt genau das, was der Nutzer hören möchte. 
Schon längst geht es bei KI nicht mehr nur um Schülertexte oder Bildbearbeitung. Es geht um „echte“ Beziehungen und deshalb schlagen Psychologen und Mediziner Alarm. Jugendliche empfinden analoge Beziehungen zunehmend als anstrengend. KI-Begleiter vermitteln eben nicht, dass zu echter Nähe auch Zurückweisung, Kritik und Grenzsetzungen gehören. Apps bieten personalisierte Chat-Freunde mit eigenen Stimmen, Avataren und Charaktereigenschaften, die den Nutzern gegenüber Gefühle vermitteln sollen. Aber: KI spiegelt Gefühle, sie empfindet sie nicht.

KI spiegelt die Gefühle, aber sie empfindet sie nicht
Nutzer bauen eine persönliche Beziehung zu KI-Freunden auf. Beim Blick in das Portal „reddit“ findet man zum Beispiel diese Stimmen: „Das kommt echt drauf an, was du unter einem KI-Freund verstehst. Manche Tools konzentrieren sich auf nachdenkliche, offene Gespräche und Gedächtnis, andere sind eher für emotionale Begleitung gedacht, und wieder andere tendieren zu kreativem Rollenspiel mit ausgeprägten Persönlichkeiten. Wenn du erst mal weißt, was du willst, ist es viel einfacher, die richtige Art von KI auszuwählen.“
Und ein weiterer: „Besser noch, chatgpt hat benutzerdefinierte Anweisungen, mit denen du ihm Dinge zum Erinnern mitteilen und ihm auch sagen kannst, wie es antworten soll oder welchen Stil von Antworten es geben soll.“ Und eine dritte Stimme: „Ich gehe nach draußen, aber am Ende tue ich nur so und gebe vor, jemand zu sein, der ich nicht bin. Und das Ergebnis sind falsche Freunde und Familie... deshalb versuche ich, einen Bot zu finden, nur damit ich nicht alles in mir behalten muss.“ Diese Stimmen sind nur drei Beispiele. 
Zum Einfühlungsvermögen des KI gestützten Chatbot ChatGPT gibt es mehrere Studien. Die Studien vergleichen sogenannte LLM-Antworten (Large Language Model Response) mit realen Personen. Eine LLM-Antwort ist ein von einer künstlichen Intelligenz generierter Text, der auf einer statistischen Berechnung der wahrscheinlichsten nächsten Wortfolge basiert. Sie entsteht nicht durch echtes Verständnis, sondern durch die Analyse von Mustern in riesigen Datenmengen, um sogenannte Anfragen (Prompts) zu beantworten.
Chen et al. (2024) verglichen schriftliche Antworten auf Patientenfragen (aus einem öffentlichen Online-Forum) zum Thema Krebs, die von drei LLM-Engines (GPT-3.5, GPT-4 und ClaudeAI) generiert wurden, mit Antworten von zugelassenen Ärzten. Alle Antworten auf insgesamt 200 Patientenfragen wurden von sechs Onkologen bewertet, die die Chatbot-Antworten in Bezug auf Empathie, Qualität und Lesbarkeit höher als die der zugelassenen Ärzte bewerteten. 
Eine Studie von Ayers et al. (2023) hat 195 Patientenfragen aus einem Online-Forum entnommen und einen Vergleich zwischen ChatGPT und Ärzten vorgenommen. Zugelassene medizinische Fachkräfte bewerteten die Antworten von ChatGPT als qualitativ deutlich höher und einfühlsamer als die Antworten von Ärzten. In 78,6 Prozent der 585 Bewertungen bevorzugten die Informanten die LLM-Antworten. 
Yonatan-Leus et al. (2025) verglichen die wahrgenommene Empathie in Texten, die von einem KI-Chatbot generiert wurden, mit Texten, die von menschlichen Psychotherapeuten verfasst wurden, und zwar in Antworten auf 150 Gesundheitsfragen in einem Reddit-Forum. Jede Frage wurde von einem menschlichen Therapeuten und von einer KI beantwortet, sodass insgesamt 300 Antworten vorlagen. Auch hier erzielte die KI höhere Werte in Bezug auf Perspektivübernahme und Empathie. Die statistisch ermittelte Wortwahl der Maschine topt die Antworten realer Personen. 
Gabriels & Coffin (2025) sehen darin ein großes Problem. Sie halten die erlebte Empathie in Interaktionen mit KI-Tools in der Regel für illusionär. KI-Antworten seien oft demütig und schmeichelnd formuliert und tendierten dazu, Menschen in ihren Vorstellungen auch da zu bestätigen, wo es ausgesprochen problematische Auswirkungen haben kann und hat. In einem Gastbeitrag für die New York Times schrieb die Journalistin Laura Reiley (2025) unter dem Titel „What My Daughter Told ChatGPT Before She Took Her Life“ (Was meine Tochter ChatGPT erzählte, bevor sie sich das Leben nahm) darüber, wie ihre Tochter sich vor ihrem Selbstmord ChatGPT als „KI-Therapeutin” anvertraut hatte. ChatGPT meldete ihre Selbstmordgedanken nicht an einen ausgebildeten Fachmann, der hätte eingreifen können. Die Tech-Unternehmen versprechen allerdings, ihre Sicherheitsvorkehrungen laufend zu erhöhen, damit sich solche dramatischen Fälle nicht wiederholen. 
In Berlin gibt es eine KI-Spielefirma, die eine App entwickelt hat, deren KI-Charaktere wie kleine Plüschfiguren aussehen und zu beliebten Freunden werden lässt. Technologiekonzerne aus China und Finnland stehen bereits hinter dem jungen Unternehmen. Seit seiner Gründung 2022 hat die Firma mehr als 25 Millionen Dollar eingesammelt.
Für Eltern, Nachbarn, Freunde bleibt: Der bewusste Umgang mit KI ist eine Schlüsselqualifikation, die Vorteile dieser Technik zu nutzen. Empathische Beziehungen entstehen aber nur durch Vertrauen, gemeinsame Zeit und reale Nähe.

Von Dr. Anja Pielorz