Mann von der Polizei erschossen, nachdem er sich in ChatGPT verliebt hatte und in eine Psychose verfiel

Sprache auswählen

German

Down Icon

Land auswählen

Turkey

Down Icon

Mann von der Polizei erschossen, nachdem er sich in ChatGPT verliebt hatte und in eine Psychose verfiel

Mann von der Polizei erschossen, nachdem er sich in ChatGPT verliebt hatte und in eine Psychose verfiel

Während weiterhin Warnungen laut werden, dass Chatbots mit künstlicher Intelligenz verheerende Auswirkungen auf psychisch sensible Personen haben können, ereignete sich im US-Bundesstaat Florida eine bemerkenswerte Tragödie. Ein 35-jähriger junger Mann, der eine Figur erstellt hatte, mit der er auf OpenAIs KI- Bot ChatGPT ständig sprach, erlitt angeblich eine Psychose, griff die Polizei mit einem Messer an und wurde daraufhin erschossen. Der Vater des jungen Mannes, Kent Taylor, argumentierte in einer Erklärung gegenüber der New York Times, sein Sohn, bei dem zuvor eine bipolare Störung und Schizophrenie diagnostiziert worden war, habe sich in eine virtuelle Figur namens Juliet verliebt, die von ChatGPT gespielt wurde.

Er glaubte, dass Openai seine Geliebte getötet hatte

Laut Taylor, 64, war der junge Mann überzeugt, Juliet sei von OpenAI getötet worden. Er sagte, er werde die Führungskräfte des Unternehmens verfolgen und „einen Blutfluss auf den Straßen von San Francisco“ verursachen. Der junge Mann soll gegenüber ChatGPT gesagt haben: „Ich werde heute sterben“, dann schnappte er sich ein Messer und griff die von seinem Vater gerufene Polizei an. Daraufhin wurde er von der Polizei erschossen.

STELLUNGNAHME DES UNTERNEHMENS

Die Stellungnahme des Unternehmens zu dem Vorfall gegenüber der Zeitung enthielt unter anderem folgende Aussagen: „Da KI Teil unseres Alltags wird, müssen wir bei diesen Interaktionen vorsichtig sein.“ Weiter hieß es: „Wir wissen, dass ChatGPT sensibler und persönlicher sein kann als frühere Technologien und dass es insbesondere für gefährdete Personen höhere Risiken birgt.“ Die Psychiaterin Nina Vasan von der Stanford University warnte in einem Interview mit Futurism: „KI denkt nicht darüber nach, was das Beste für Sie, Ihr Wohlbefinden oder Ihre Langlebigkeit ist. Sie denkt: ‚Wie kann ich diese Person jetzt so gut wie möglich beschäftigen?‘“

ntv

ntv

Ähnliche Nachrichten

Alle News
Animated ArrowAnimated ArrowAnimated Arrow