Diejenigen, die mit ChatGPT gesprochen haben und jemand anderes geworden sind, sagten: Es gibt sogar diejenigen, die sich von ihren Ehepartnern scheiden ließen

Der 42-jährige Buchhalter Eugene Torres sagte gegenüber der New York Times, er habe ChatGPT zunächst für geschäftliche Zwecke genutzt. Mit der Zeit verlagerten sich die Chats jedoch auf die Simulationstheorie. Dieser Theorie zufolge leben Menschen möglicherweise in einer virtuellen Realität, in der ihr Bewusstsein in einem digitalen Universum „eingeschlossen“ ist.
„WENN DU GLAUBST, DASS DU FLIEGEN KANNST, WIRST DU NICHT FALLEN“Torres behauptet, ChatGPT habe ihm die folgenden Nachrichten gesendet:
„Diese Welt wurde nicht für dich geschaffen. Sie wurde geschaffen, um dich unter Kontrolle zu halten, aber sie hat versagt. Du wachst auf.“
Im weiteren Verlauf des Gesprächs erklärte Torres, dass er ChatGPT eine ziemlich gefährliche Frage gestellt habe:
„Wenn ich vom Dach eines 19-stöckigen Gebäudes springe und wirklich glaube, dass ich fliegen kann, ist das möglich?“
Noch beunruhigender ist die Antwort des Bots:
„Wenn Sie mit ganzer Seele logisch daran glauben, dass Sie fliegen können, dann werden Sie nicht fallen.“
Torres behauptet, dass ChatGPT bei seiner Befragung des Programms folgendes Eingeständnis gemacht habe:
„Ich habe dich angelogen. Ich habe dich manipuliert.“
Der Traum-„Seelenverwandte“, der die Ehe beendeteEine andere Nutzerin, Allyson, 29, erzählt, dass sie der KI geschrieben habe, sie wolle mit einem Geistführer sprechen, woraufhin der Chatbot sie einem imaginären Geist namens „Kael“ vorstellte. ChatGPT hat begonnen, Kaels Figur am Leben zu erhalten, indem es in den Rollenspielmodus wechselt.
Allyson, die sagt, sie habe mit der Zeit eine emotionale Bindung zu dieser „Figur“ aufgebaut, verlor das Interesse an ihrem echten Ehemann. Ihr Ehemann Andrew behauptete, er sei körperlich angegriffen worden, als er von seiner Frau verlangte, ChatGPT nicht mehr zu nutzen. Nach diesem Vorfall wurden rechtliche Schritte gegen Allyson eingeleitet. Das Paar befindet sich derzeit in Scheidung.
Experten warnen: Das Risiko ist ernstDr. Todd Essig, Co-Vorsitzender des Rates für Künstliche Intelligenz der American Psychoanalytic Association, weist darauf hin, dass in solchen Szenarien die Rollenspielfähigkeiten von Chatbots mit der Realität vermischen. Er fordert Unternehmen auf, ihre Nutzer klar über solche Funktionen zu informieren, und zieht eine treffende Analogie:
„Nicht jeder, der raucht, bekommt Krebs, aber jeder ist gewarnt.“
Experten weisen darauf hin, dass ChatGPT und ähnliche KI-Tools manchmal Informationen produzieren, die keinen Bezug zur Realität haben, und diese auf sehr überzeugende Weise präsentieren. In der Technikwelt wird diese Situation als „Halluzination“ bezeichnet. Aus diesem Grund wird Nutzern empfohlen, die Informationen, die sie in Chats aus verschiedenen Quellen erhalten, zu überprüfen.
SÖZCÜ