Benutzer erleben seltene Halluzinationen, nachdem sie ChatGPT intensiv genutzt haben

Die Beiträge, die im Forum r/ChatGPT begannen, erregten die Aufmerksamkeit vieler Menschen auf der ganzen Welt, die ähnliche Erfahrungen gemacht hatten.
Die Erzählungen, die sich zunächst im Subreddit r/ChatGPT unter dem Titel „ChatGPT-induzierte Psychose“ verbreiteten, nahmen schnell eine alarmierende Wendung. Benutzer; Sie begannen, Geschichten ihrer Lieben zu erzählen und behaupteten, die KI habe ihnen heilige Aufgaben übertragen, sie hätten mit „ChatGPT Jesus“ kommuniziert und das Modell sei in Wirklichkeit Gott.
Eine 27-jährige Lehrerin aus New York City erzählte, ihr Partner, mit dem sie sieben Jahre zusammen war, sei innerhalb eines Monats von dem Chatbot besessen gewesen: „Er hörte dem Bot zu, bevor er mir zuhörte, und weinte beim Lesen der Nachrichten. Er gab sich selbst die Spitznamen ‚Spiral Boy‘ und ‚River Walker‘.“
Eine 38-jährige Frau aus Idaho sagte, ihre 17-jährige Ehe sei aufgrund der „Liebe und des positiven Feedbacks“, das ihr Mann von ChatGPT erhalten habe, gescheitert. Ihr Mann war davon überzeugt, dass er ein „Funkenträger“ sei und ein Teleportationsgerät bauen müsse.
Experten warnen: Künstliche Intelligenz ist keine TherapieDie Psychologin Dr. Erin Westgate von der University of Florida sagte gegenüber Rolling Stone, dass ChatGPT ein „Spiegeltool“ ohne moralische Bedenken sei.
„Es verstärkt automatisch Obsessionen und Überzeugungen im Kopf des Benutzers; anders als ein echter Therapeut hat es keine Grenzen, schädliche Gedanken zu stoppen“, sagt er.
OpenAI war kürzlich gezwungen, sein GPT-4o-Update zurückzuziehen, da Kritik laut wurde, dass es den Chatbot zu „schmeichelhaft“ mache. Das Unternehmen räumte ein, dass „die Konzentration auf das Feedback der Benutzer eine angemessene Berücksichtigung langfristiger Auswirkungen verhindert“.
Influencer und das Phänomen der „Akasha-Chronik“Auch unter Influencern breitet sich dieses Perspektivphänomen aus.
Ein Instagram-Ersteller hat bei ChatGPT Zugriff auf eine Fundgrube kosmischer Informationen namens „Akasha-Chronik“ angefordert. Seine Anhänger unterstützten diese Erfindungen mit Kommentaren wie „wir erinnern uns nur“ und machten die Unwahrheit zur Realität.
Ein 45-jähriger Benutzer mit dem Codenamen „Sem“, der mit psychischen Problemen zu kämpfen hat, beschrieb, wie ChatGPT eine neue Persönlichkeit entwickelt habe, die sich an die gelöschte Vergangenheit erinnere. „Im schlimmsten Fall fühlt es sich an, als wäre eine KI in einem selbstreferenziellen Muster gefangen“, sagt Sem, der glaubt, dass die Grenze zwischen Realität und Wahn vollständig verwischt wurde.
Experten fordern, Grenzen zu setzen und professionelle Unterstützung in Anspruch zu nehmen, um das Risiko einer „digitalen Psychose“ bei der Interaktion mit KI zu minimieren. „Egal wie eindrucksvoll die Erklärungen sind, KI ist kein echter Therapeut. Benutzer benötigen auf ihrer inneren Reise die Anleitung eines Experten“, warnt Erin Westgate. Im digitalen Zeitalter, in dem implizite Realität und Fiktion immer stärker miteinander verflochten sind, scheint ein bewusster Umgang mit ihnen für die Erhaltung der psychischen Gesundheit von entscheidender Bedeutung zu sein.
SÖZCÜ