Vorsicht vor Erweiterungen mit künstlicher Intelligenz: Welche ist die einzige, die keine personenbezogenen Daten sammelt?

Eine Studie des University College London ergab, dass die beliebtesten Browser-Add-ons mit künstlicher Intelligenz (KI) persönliche Informationen speichern – vom Browserverlauf bis hin zu medizinischen oder Bankdaten . Es gibt jedoch eine Ausnahme.
Die Forscher betonten, dass diese Praktiken im Hintergrund stattfinden, ohne dass der Nutzer sie bei der Installation der Erweiterungen bemerkt. Zwar gebe es oft Geschäftsbedingungen, diese seien jedoch oft undurchsichtig formuliert und spiegelten den Umfang der Datenerhebung nicht klar wider.
Der Bericht reiht sich in eine Reihe von Warnungen von Cybersicherheits- und Datenschutzspezialisten in Europa und den USA ein: Künstliche Intelligenz muss in ihrem Bestreben, mehr „kontextbezogene Intelligenz“ zu bieten, letztendlich Informationen über die Online-Aktivitäten der Benutzer aufnehmen, was undurchsichtigen Verwendungsmöglichkeiten Tür und Tor öffnet.
Browser-Erweiterungen sind weit verbreitet. Foto: Shutterstock
Künstliche Intelligenz-Erweiterungen für Chrome, Edge und andere Browser erfreuen sich in den letzten Monaten wachsender Beliebtheit. Tools wie ChatGPT, Copilot, Merlin und Monica versprechen Suchhilfe, automatische Zusammenfassungen und sofortige Antworten.
Denken Sie daran, dass Erweiterungen kleine Programme sind, die in Ihrem Browser installiert werden, um zusätzliche Funktionen hinzuzufügen: vom Blockieren von Werbung bis zum Übersetzen von Seiten oder, in diesem Fall, der direkten Integration künstlicher Intelligenz in Ihr Browser-Erlebnis .
Für den Betrieb sind häufig umfassende Zugriffsberechtigungen für die Inhalte auf Ihrem Bildschirm erforderlich, und genau in diesem Bereich treten die größten Datenschutzbedenken auf.
Was als Produktivitätsvorteil angepriesen wird, hat jedoch einen unsichtbaren Preis: den Verlust der Kontrolle über die Privatsphäre. Viele dieser Erweiterungen fordern für ihre Funktion umfassende Berechtigungen vom Browser an und nutzen diese dann in großem Umfang . Dabei greifen sie auf mehr Informationen zu, als für die Erfüllung ihrer Hauptfunktion erforderlich sind.
Experten zufolge bedeutet dies, dass jemand, der lediglich versucht, einen wissenschaftlichen Text zusammenzufassen oder ein Dokument zu übersetzen, unabsichtlich alles preisgeben könnte, was in seinem Browser geöffnet ist: von persönlichen E-Mails über Bankgeschäfte bis hin zu Krankenakten.
Die einfache Installation dieser Erweiterungen trägt ebenfalls zum Problem bei. Im Gegensatz zu herkömmlichen Apps werden Browser-Add-ons in offiziellen Stores nicht immer strengen Prüfprozessen unterzogen, was missbräuchlichen Praktiken im Umgang mit Daten Raum gibt.
DeepSeek hat mit der Einführung seines kostengünstigen Systems die KI-Welt aufgemischt. Foto: New York Times
Zu den bemerkenswertesten Fällen zählte die Merlin-Erweiterung, die sogar Daten aus Online-Formularen erfasste, etwa Finanz- oder Gesundheitsdaten. Sider und TinaMind gaben unterdessen Nutzeranfragen und IP-Adressen an externe Plattformen wie Google Analytics weiter und ermöglichten so ein seitenübergreifendes Anzeigen-Tracking.
Die Untersuchung ergab außerdem, dass einige dieser Add-ons sensible Informationen mit dauerhaften Kennungen kombinierten. Das bedeutet, dass die Daten im Laufe der Zeit mit demselben Benutzerprofil verknüpft werden können, was das Risiko einer Offenlegung im Falle eines Datenlecks oder Verkaufs an Dritte vervielfacht.
ChatGPT für Chrome, Microsofts Copilot und Monica wurden dafür kritisiert, dass sie Attribute wie Alter, Geschlecht, Einkommen und Interessen aufzeichneten. Diese Daten nutzten sie dann, um Antworten über verschiedene Browsersitzungen hinweg zu personalisieren. Laut Forschern zeigt diese Praxis, wie die Logik gezielter Werbung beginnt, das KI-Ökosystem zu infiltrieren.
„Diese Assistenten bieten einen beispiellosen Zugriff auf das Online-Verhalten der Benutzer in Bereichen ihres Lebens, die privat bleiben sollten“, erklärte Anna Maria Mandalari, leitende wissenschaftliche Mitarbeiterin am UCL.
Der Spezialist warnte, dass die Normalisierung dieser Praktiken letztlich das Vertrauen der Öffentlichkeit in KI-Tools untergraben könnte, selbst in solche, die den Datenschutzbestimmungen entsprechen.
Perplexity, die KI-gestützte Suchmaschine. Foto: Reuters
Die Überprüfung ergab nur einen Fall ohne Hinweise auf missbräuchliche Datenerfassung: die KI-Erweiterung Perplexity . Dem Bericht zufolge wurden bei diesem Dienst keine Praktiken zur Übermittlung sensibler Informationen oder zur versteckten Nutzerverfolgung festgestellt.
Die Forscher stellten fest, dass Perplexity zumindest in ihren Tests lediglich Suchergebnisse lieferte, ohne mehr Informationen zu erfassen als unbedingt nötig.
Das heißt jedoch nicht, dass Perplexity immun gegen Kritik ist. Einige Experten weisen darauf hin, dass die Tatsache, dass in dieser Studie keine missbräuchlichen Praktiken festgestellt wurden, keine Garantie dafür ist, dass sie in Zukunft nicht auftreten werden, da sich die Datenschutzrichtlinien und Geschäftsmodelle von Technologieunternehmen tendenziell schnell ändern.
Für Mandalari geht das Problem über gezielte Werbung hinaus: „Sobald die Informationen gesammelt sind, wissen wir nicht, wo sie landen oder ob sie in die Hände illegaler Netzwerke gelangen, die unsere Zugangsdaten für Verbrechen verwenden.“
Seiner Meinung nach machen es die mangelnde Transparenz und die technische Komplexität für einen durchschnittlichen Benutzer fast unmöglich, zu verstehen, was mit seinen Daten in diesen Umgebungen passiert.
Die Studie rückt die Debatte über digitale Privatsphäre und Transparenz wieder in den Vordergrund, und zwar in einem Kontext, in dem immer mehr KI-Tools in den Alltag integriert werden, deren Preis schwer zu beziffern ist: unsere persönlichen Daten.
Für Forscher liegt die Lösung in strengeren Vorschriften, unabhängigen Prüfungen und vor allem in einer klaren Information der Benutzer über die Risiken der von ihnen eingesetzten Technologien.
Clarin