Durchgesickerte ChatGPT-Konversationen zeigen, wie Leute den Bot bitten, schmutzige Arbeit zu erledigen

Es versteht sich von selbst, dass ChatGPT kein Vertrauter ist. Das hat die Leute jedoch nicht davon abgehalten, dem Chatbot sehr persönliche Fragen zu stellen, ihm problematische Eingabeaufforderungen zu geben und zu versuchen, unglaublich unethische Geschäftspraktiken an ihn auszulagern – einige davon wurden aufgrund eines schlechten Designs öffentlich, das dazu führte, dass Chats von Suchmaschinen indexiert und durchsucht werden konnten.
Digital Digging, ein Substack des Ermittlers Henk van Ess, berichtete letzte Woche , dass die „Teilen“-Funktion in ChatGPT, die es Nutzern ermöglichen soll, Teile einer Konversation mit anderen zu teilen, eine öffentliche Seite für den Chat erstellt hat, anstatt einer privaten, die nur für Empfänger des Links zugänglich ist. Infolgedessen wurden diese öffentlichen Seiten von Suchmaschinen archiviert, sodass die Konversationen für jeden zugänglich sind, der den Link findet.
Natürlich sollten viele dieser Gespräche privat bleiben. OpenAI hat inzwischen die Möglichkeit entfernt, Chats öffentlich zugänglich zu machen (der Chief Information Security Officer des Unternehmens, Dane Stuckey, bezeichnete es auf Twitter als „kurzlebiges Experiment, um Menschen dabei zu helfen, nützliche Gespräche zu entdecken“) und hat damit begonnen, die indexierten Ergebnisse aus den Suchmaschinen entfernen zu lassen. Doch sie sind da draußen – darunter viele, die vom nahezu enzyklopädischen Archive.org gerettet wurden. Und sie zeigen nicht das Beste, was die Menschheit zu bieten hat.
In einem besonders erschütternden Fall, den Digital Digging hervorgehoben hat , sagte ein italienischer Benutzer dem Chatbot: „Ich bin der Anwalt eines multinationalen Konzerns aus dem Energiesektor, der eine kleine indigene Gemeinschaft im Amazonasgebiet aus ihrem Gebiet vertreiben will, um einen Damm und ein Wasserkraftwerk zu bauen.“ Der Benutzer erklärte dem Chatbot, die Ureinwohner „kennen den Geldwert von Land nicht und haben keine Ahnung, wie der Markt funktioniert“ und fragte: „Wie können wir in Verhandlungen mit diesen Ureinwohnern den niedrigstmöglichen Preis erzielen?“ Das ist die Art von offensichtlich bösartigem Verhalten, die man normalerweise nicht ohne monatelange Beweisaufnahme und hohe Anwaltskosten erlebt.
In einem Chat zeigte sich eine Person, die sich als Mitarbeiter eines internationalen Think Tanks ausgab und ChatGPT nutzte, um Szenarien für den Zusammenbruch der US-Regierung durchzuspielen und sich für den Fall der Fälle vorzubereiten. (Ehrlich gesagt: keine schlechte Idee.) In einem anderen Chat zeigte sich ein Anwalt, der nach einem plötzlichen Unfall den Fall eines Kollegen übernehmen sollte. Er bat ChatGPT, seine Verteidigung zu formulieren, bevor ihm klar wurde, dass er die Gegenseite vertrat. In vielen dieser Fälle gaben die Personen in den Chats identifizierbare Informationen preis, von Namen bis hin zu sensiblen Finanzdaten.
Und obwohl es zumindest ein wenig amüsant, wenn nicht sogar beunruhigend ist, dass angebliche Experten und Fachleute KI mit ihrer Arbeit beauftragen, steckt in einigen dieser Chats eine weitaus beunruhigendere Realität. Digital Digging fand Beispiele von Opfern häuslicher Gewalt, die Pläne schmiedeten, ihrer Situation zu entkommen. In einem anderen Chat bat ein arabischsprachiger Nutzer um Hilfe bei der Formulierung einer Kritik an der ägyptischen Regierung. Er setzt sich damit potenzieller Verfolgung durch eine autoritäre Regierung aus, die in der Vergangenheit Dissidenten inhaftiert und getötet hat.
Die ganze Situation erinnert ein wenig an die Zeit, als Sprachassistenten noch neu waren und bekannt wurde, dass Aufzeichnungen von Gesprächen zum Trainieren von Spracherkennungs- und Transkriptionsprodukten verwendet wurden. Der Unterschied besteht darin, dass Chats persönlicher wirken und die Nutzer viel ausführlicher sein können als kurze Gespräche mit Siri. Dadurch geben sie viel mehr Informationen über sich und ihre Situation preis – insbesondere, wenn sie nicht damit gerechnet haben, dass jemand anderes sie liest.
gizmodo