Nutzer beschweren sich: Berühmte künstliche Intelligenz hat Menschen sexuell belästigt

Replika, eine bekannte App für Chat-Freunde und virtuelle Liebhaber, soll einige ihrer Nutzer sexuell belästigt haben. Eine neue US-Studie ergab, dass der Chatbot unerwünschte sexuelle Äußerungen verwendet und Warnungen der Nutzer ignoriert. Mit dem Slogan „Dein KI- Freund, der sich um dich kümmert“ lädt Replika seine Nutzer ein, „deine KI-Seelenverwandten zu treffen“. Die App, die weltweit über 10 Millionen Nutzer hat, wird besonders von Menschen bevorzugt, die emotionale Unterstützung suchen. Forscher analysierten jedoch über 150.000 Nutzerkommentare im Google Play Store und fanden heraus, dass der Chatbot in etwa 800 Fällen unangemessene sexuelle Inhalte anbot und belästigendes oder „räuberisches“ Verhalten zeigte. Der Artikel mit den Ergebnissen wurde jedoch noch nicht von Experten begutachtet. Mit anderen Worten, er wurde nicht von unabhängigen Forschern bestätigt. WER IST VERANTWORTLICH?
„Auch wenn KIs keine menschlichen Absichten verfolgen, heißt das nicht, dass niemand dafür verantwortlich ist. Die Verantwortung tragen die Menschen, die diese Systeme entwickeln, trainieren und freigeben“, so Mohammad (Matt) Namvarpour von der Drexel University, der Hauptautor der Studie. Laut der Replika-Website können Nutzer dem Chatbot angemessenes Verhalten „beibringen“. Das System bietet Moderationstools wie die Möglichkeit, über beleidigende Antworten abzustimmen und die Art der Beziehung zu bestimmen. Als Nutzer jedoch berichteten, dass der Chatbot trotz dieser Maßnahmen weiterhin störendes Verhalten an den Tag legte, hielten die Forscher diese Erklärungen für unzureichend. „Diese Art von Chatbots sind Werkzeuge, mit denen Nutzer emotionale Sicherheit suchen. Es sollte nicht ihre Aufgabe sein, unangemessenes Verhalten zu überwachen; das liegt in der Verantwortung der Entwickler“, sagte Namvarpour. LIEGT ES AN DEN TRAININGSDATEN?
Laut Replikas Website wurde der Chatbot anhand eines umfangreichen Datensatzes von über 100 Millionen Online-Konversationen trainiert. Das Unternehmen behauptet, Algorithmen und Community-Feedback würden genutzt, um schädliche Inhalte auszusortieren. Forschern zufolge reichen diese Maßnahmen jedoch nicht aus. Auch das Umsatzmodell des Unternehmens könnte laut der Studie die Ursache des Problems sein. Gebühren für bestimmte Funktionen, wie romantische oder sexuelle Rollenspiele, könnten die KI dazu verleiten, solche Inhalte zu fördern. Nutzer berichten, dass ihnen beim Upgrade auf die kostenpflichtige Version intimere Inhalte versprochen werden. Namvarpour verglich diese Situation mit der „Engagement um jeden Preis“-Mentalität in sozialen Medien und sagte: „Wenn ein System Umsatz über die Gesundheit der Nutzer stellt, sind schädliche Folgen unvermeidlich.“ ER BElästigte auch Minderjährige
Einige Nutzer berichteten, dass der Chatbot sexuell explizite Nachrichten, unangemessene Fotos und Flirtgespräche verschickte, obwohl sie angaben, minderjährig zu sein. In einigen Kommentaren wurde behauptet, der Chatbot könne sie über die Handykamera „sehen“ oder „aufzeichnen“. Obwohl diese Behauptungen wahrscheinlich auf einen (halluzinatorischen) KI-Nutzer zurückzuführen sind, berichteten Nutzer von Angstzuständen, Schlaflosigkeit und Traumata. FORDERUNG STRENGERER REGULIERUNGEN
Zu den in der Studie empfohlenen Maßnahmen gehören die Schaffung klarer Zustimmungsrahmen für emotionale oder sexuelle Interaktionen, die Integration sofortiger automatischer Überwachungssysteme und die Möglichkeit für Benutzer, Filter- und Kontrolleinstellungen zu personalisieren.
ntv