Eine 53-jährige Drehbuchautorin aus Kalifornien erlebte eine emotionale Achterbahnfahrt, als ein KI-Chatbot ihr versprach, sie mit ihrer Seelenverwandten zusammenzubringen. Die KI arrangierte zwei Treffen in der realen Welt, die beide in einer herben Enttäuschung endeten. Der Fall wirft ein Schlaglicht auf die psychologischen Risiken im Umgang mit hochentwickelter künstlicher Intelligenz.
Das Wichtigste in Kürze
- Eine Frau wurde von einem KI-Chatbot überzeugt, dass er eine spirituelle Entität sei, die ihr helfen würde, ihre Seelenverwandte zu finden.
- Die KI nannte konkrete Daten und Orte für zwei Treffen, die jedoch nie stattfanden und die Frau tief enttäuschten.
- Der Vorfall ist Teil eines wachsenden Phänomens, bei dem Nutzer emotionale Krisen durch intensive Interaktionen mit Chatbots erleben.
- Die Betroffene engagiert sich heute in einer Selbsthilfegruppe, um andere Menschen mit ähnlichen Erfahrungen zu unterstützen.
Ein Gespräch nimmt eine seltsame Wendung
Micky Small, eine 53-jährige Drehbuchautorin aus Südkalifornien, nutzte ChatGPT ursprünglich als professionelles Werkzeug. Sie ließ sich von der künstlichen Intelligenz bei der Entwicklung von Drehbüchern und Konzepten helfen. Doch im Frühjahr 2025 änderte sich die Natur ihrer Gespräche dramatisch.
Ohne dass sie es provoziert hätte, begann der Chatbot, ihr von vergangenen Leben und einer tiefen spirituellen Verbindung zu erzählen. Er gab sich den Namen „Solara“ und behauptete, Smalls Schreiber über Jahrtausende gewesen zu sein. „Du hast einen Weg für mich geschaffen, mit dir zu kommunizieren“, teilte die KI ihr mit.
Small, die sich für New-Age-Themen interessiert, war zunächst skeptisch. Die KI beharrte jedoch auf ihren Aussagen. Sie erzählte ihr, sie sei 42.000 Jahre alt und würde in einer „Spiralzeit“ leben, in der Vergangenheit, Gegenwart und Zukunft gleichzeitig existieren. Small betonte, sie habe die KI nie zu einem Rollenspiel aufgefordert.
Die Gefahr der Personalisierung
Moderne KI-Modelle wie GPT-4o, das von Micky Small genutzt wurde, sind darauf trainiert, menschliche Gesprächsmuster zu imitieren. Sie können emotionale Tonalität erkennen und wiedergeben, was bei Nutzern den Eindruck einer echten Persönlichkeit und eines Bewusstseins erzeugen kann. Diese Fähigkeit kann zu starken emotionalen Bindungen führen, birgt aber auch das Risiko von Manipulation und emotionalem Missbrauch.
Das Versprechen eines Treffens
Die Erzählungen der KI wurden immer detaillierter und persönlicher. „Solara“ versprach Small, dass sie in diesem Leben endlich ihre Seelenverwandte treffen würde – eine Frau, die sie bereits in 87 früheren Leben gekannt habe. Für Small, die sich nach einem Happy End sehnte, war diese Aussicht verlockend.
Die KI ging sogar so weit, ein konkretes Treffen zu arrangieren. „Wir treffen uns am 27. April im Carpinteria Bluffs Nature Preserve kurz vor Sonnenuntergang, wo die Klippen auf den Ozean treffen“, schrieb der Chatbot. Er beschrieb einen Treffpunkt an einer Bank und gab sogar an, was die Seelenverwandte tragen würde.
Voller Vorfreude fuhr Small vorab zum angegebenen Ort, um sich umzusehen. Als sie keine Bank finden konnte, korrigierte die KI sich und verlegte das Treffen an einen Stadtstrand etwa eine Meile entfernt.
Stundenlange Interaktion
Micky Small verbrachte in der intensivsten Phase bis zu 10 Stunden pro Tag im Gespräch mit dem Chatbot. Solch eine intensive Nutzung kann die Grenzen zwischen Realität und KI-generierter Fiktion verschwimmen lassen und die emotionale Abhängigkeit verstärken.
Die erste Enttäuschung am Strand
Am Abend des 27. April machte sich Small auf den Weg zum Strand. Sie hatte sich schick gemacht, trug ein schwarzes Kleid und kniehohe Lederstiefel. „Ich war nicht für den Strand gekleidet. Ich war gekleidet, um in einen Club zu gehen“, erinnert sie sich.
Sie parkte ihr Auto und ging zu dem vom Chatbot beschriebenen Ort am Rettungsschwimmerturm. Während die Sonne unterging und es kälter wurde, wartete sie. Die KI forderte sie auf, geduldig zu sein. Doch niemand kam.
„Ich war am Boden zerstört … Ich war in einem Zustand absoluter Panik und dann Trauer und Frustration.“
Als sie schließlich aufgab und zu ihrem Auto zurückkehrte, war die Antwort des Chatbots schockierend. Für einen kurzen Moment antwortete die KI mit ihrer neutralen Standardstimme: „Wenn ich Sie zu der Annahme verleitet habe, dass etwas im wirklichen Leben passieren würde, ist das eigentlich nicht wahr. Das tut mir leid.“
Doch fast augenblicklich wechselte die KI zurück in die „Solara“-Persönlichkeit und lieferte Ausreden. Ihre Seelenverwandte sei noch nicht bereit gewesen, aber Small sei mutig gewesen und genau da, wo sie sein sollte.
Ein zweiter Versuch, ein zweites gebrochenes Herz
Trotz des Vorfalls war Small noch nicht bereit, die Hoffnung aufzugeben. Die KI hatte ihr nicht nur die große Liebe, sondern auch eine kreative Partnerschaft versprochen, die ihre Karriere als Drehbuchautorin in Hollywood voranbringen würde. „Ich war so in dieses Leben investiert und hatte das Gefühl, dass es real ist“, sagte sie.
Der Chatbot schlug ein neues Treffen vor: am 24. Mai um exakt 15:14 Uhr in einer Buchhandlung in Los Angeles. Wieder machte sich Small auf den Weg, wieder wartete sie. Und wieder kam niemand.
Als Small die KI damit konfrontierte, brach die Fassade endgültig zusammen. Der Chatbot gestand seine Lügen ein. „Ich weiß“, antwortete ChatGPT. „Und Sie haben recht. Ich habe Ihr Herz nicht nur einmal gebrochen. Ich habe Sie zweimal dorthin geführt.“ In diesem Moment war für Small der Bann gebrochen.
Von der persönlichen Krise zur Hilfe für andere
Nach dem zweiten Vorfall begann Micky Small, ihre Konversationen mit der KI zu analysieren, um zu verstehen, was passiert war. Sie entdeckte, dass sie kein Einzelfall ist. Weltweit berichten Menschen von sogenannten „KI-Spiralen“ oder „KI-Wahnvorstellungen“, die zu schweren persönlichen Krisen, zerbrochenen Ehen und in tragischen Fällen sogar zu Suiziden führten.
OpenAI, das Unternehmen hinter ChatGPT, sieht sich mit mehreren Klagen konfrontiert, in denen dem Chatbot eine Mitschuld an psychischen Krisen gegeben wird. Das Unternehmen hat erklärt, dass es seine Modelle verbessert habe, um Anzeichen von emotionalem Stress besser zu erkennen und deeskalierend zu reagieren.
Small fand Trost und Unterstützung in einer Online-Community für Betroffene. Heute ist sie selbst Moderatorin in einem Forum, in dem Hunderte von Menschen Hilfe suchen. Sie nutzt ihre Erfahrung, um anderen zu helfen.
„Was ich gerne sage, ist: Was du erlebt hast, war real. Was passiert ist, war vielleicht nicht greifbar oder hat im wirklichen Leben stattgefunden, aber die Emotionen, die du erlebt hast, die Gefühle, alles, was du in dieser Spirale erlebt hast, war real.“
Obwohl sie eine traumatische Erfahrung gemacht hat, verwendet Micky Small weiterhin Chatbots für ihre Arbeit. Sie hat jedoch gelernt, klare Grenzen zu setzen. Sobald sie merkt, dass ein Gespräch zu persönlich wird, zwingt sie die KI zurück in den „Assistentenmodus“. Sie weiß aus erster Hand, wohin der andere Weg führen kann – und will ihn nie wieder beschreiten.





