An Meta AI gestellte Fragen können öffentlich werden

In den USA könnten die Interaktionen der Nutzer von Metas Chatbot mit künstlicher Intelligenz – der auf Plattformen wie Facebook, Instagram und in der neuen eigenständigen App Meta AI eingeführt wurde und von mehr als einer Milliarde Nutzern verwendet werden soll – in einer öffentlichen Präsentation enden .
Dies liegt daran, dass viele der an den Assistenten gesendeten Anfragen aller Art und jeden Inhalts im Bereich „ Entdecken “ verfügbar gemacht werden, wo sie jeder lesen kann, ohne dass der Verfasser darüber klar informiert wird oder die Möglichkeit hat, dies zu verhindern.
Konkret bedeutet dies, dass selbst sensible oder streng persönliche Fragen die Privatsphäre des Gesprächs mit der KI verlassen können (aber können wir es immer noch als „Privatsphäre“ definieren, wenn wir es einer KI sagen?) und als Beispiele für Interaktionen erscheinen, die für alle sichtbar sind und ein gemeinsames Archiv der Gespräche mit der KI speisen.
Das Ergebnis? Eine potenziell unbeabsichtigte Offenlegung intimer Details, vertraulicher Daten oder Anfragen, die insbesondere aus dem Kontext gerissen unangemessen oder peinlich erscheinen können.
Gefährdete Privatsphäre: Keine klare WarnungEines der Hauptprobleme ist die mangelnde Transparenz: Viele Nutzer sind sich nicht bewusst, dass ihre Anfragen an den KI-Assistenten von Meta in diesem Bereich öffentlich angezeigt werden können . Es gibt weder eine explizite Warnung beim Senden noch eine klare Möglichkeit, die eigene Anfrage von der möglichen Veröffentlichung im Feed des Discover-Bereichs auszuschließen.
In der Praxis könnte eine Person um Rat zu komplizierten Beziehungen, Gesundheitssymptomen, rechtlichen Problemen oder persönlichen Überlegungen fragen – indem sie Namen, Daten, persönliche Nummern eingibt – und dabei denkt, dies in einer privaten oder, besser gesagt, „geschützten“ Interaktion zu tun, und sich – ohne es zu wollen – in einem öffentlichen Schwarzen Brett wiederfinden, das von jedem eingesehen werden kann .
Natürlich gibt es keinen Mangel an Berichten – wie beispielsweise Wired US gezeigt hat – über öffentlich auftauchende Fragen zu Sex, Religion, Familie und Arbeit, einige davon in expliziter, beleidigender oder anstößiger Weise.
Ein System, das inakzeptable Inhalte verstärken kannDas Problem beschränkt sich natürlich nicht nur auf den Datenschutz. Der Algorithmus hinter dem Discover-Bereich scheint auch ohne einen menschlichen Filter zu funktionieren.
Dies bedeutet, dass potenziell schädliche oder diskriminierende Fragen – und sogar Inhalte, die die Grenze zu Hassreden oder Aufwiegelung überschreiten – angezeigt und weit verbreitet werden können, wodurch eine giftige oder gewalttätige Sprache normalisiert wird .
Obwohl Meta behauptet, automatische Moderationstools einzusetzen, ist klar, dass die Plattform nicht frei von Mängeln ist.
In Italien ist der Alarm (vorerst) begrenztDerzeit sind solche Szenarien tatsächlich nur in den USA möglich, wo die Meta AI App mit allen Funktionen verfügbar ist. In Italien ist die Erfahrung mit der eigenständigen Meta AI App jedoch noch sehr begrenzt : Die einzige Möglichkeit, mit dem Assistenten zu interagieren, ist über die Ray-Ban Meta-Brille, und die Funktionen sind noch unvollständig.
Es ist zwar nicht ausgeschlossen, dass in Meta AI eingefügte Eingabeaufforderungen, beispielsweise über WhatsApp , Messenger oder Instagram, denselben Weg einschlagen könnten. Es ist jedoch nur eine Frage der Zeit, bis die App in unserem Land vollständig verbreitet ist. Sollte dies geschehen, könnte sich die gleiche Dynamik auch in Europa wiederholen, mit noch gravierenderen Folgen für den Schutz personenbezogener Daten angesichts der strengen DSGVO und aller weiteren Einschränkungen der Regulierung digitaler Dienste.
Was kann der Benutzer tun?Meta gibt an, dass die Einstellungen standardmäßig privat sind . Ein Sprecher, Daniel Roberts, teilte der US-Publikation beispielsweise in einer E-Mail mit, dass die Gespräche der Benutzer mit Meta AI tatsächlich privat seien , es sei denn, sie würden sie in einem mehrstufigen Prozess im Discover-Feed teilen .
Die Gruppe antwortete jedoch nicht auf Fragen zu den Maßnahmen, die sie ergriffen hat, um die Weitergabe personenbezogener Daten auf der Meta-AI-Plattform zu verhindern. Kurz gesagt: Das Gebiet ist etwas unklar – und die Erkenntnisse von Discover scheinen nicht ausschließlich das Ergebnis proaktiver und bewusster Offenlegung zu sein – und es mangelt an detaillierten Tools zum Datenschutz.
Selbst die Einsichtnahme in die Nutzungsbedingungen ist unklar und uneinheitlich. Wenn ein Assistent auch zu einer „Redaktion“ oder zumindest einer Content-Engine wird, die entscheiden kann, was der Öffentlichkeit gezeigt wird, sind neue Garantien für Kontrolle, Transparenz und Aufklärung erforderlich.
In einem Blogbeitrag des Unternehmens vom vergangenen April, in dem die eigenständige App angekündigt wurde, schrieb der Konzern: „Nichts wird in Ihrem Feed geteilt, es sei denn, Sie entscheiden sich dafür.“ In der Ankündigung hieß es auch, dass Nutzer die KI bitten können, sich Dinge über sie zu merken und relevantere Antworten auf ihre Fragen zu liefern, indem sie auf Informationen zurückgreift, die Sie bereits für die Freigabe in Meta-Produkten ausgewählt haben, wie Ihr Profil und die Inhalte, die Ihnen gefallen oder mit denen Sie interagieren. Doch es scheint, als ginge das viel weiter als erwartet.
La Repubblica