KI kann viel besser debattieren, wenn sie weiß, wer Sie sind, so eine Studie

Eine neue Studie zeigt, dass GPT-4 in Einzelgesprächen zuverlässig Debatten gegen seine menschlichen Gegenstücke gewinnt – und die Technologie wird noch überzeugender, wenn sie Ihr Alter, Ihren Beruf und Ihre politische Einstellung kennt.
Forscher der EPFL in der Schweiz, der Princeton University und der Fondazione Bruno Kessler in Italien brachten 900 Studienteilnehmer entweder mit einem menschlichen Debattierpartner oder mit GPT-4 von OpenAI zusammen, einem großen Sprachmodell (LLM), das konzeptbedingt hauptsächlich Textantworten auf menschliche Eingaben produziert. In einigen Fällen hatten die Teilnehmer (sowohl Maschinen als auch Menschen) Zugriff auf grundlegende demografische Informationen ihrer Gegenüber, darunter Geschlecht, Alter, Bildung, Beschäftigung, ethnische Zugehörigkeit und politische Einstellung.
Die heute in Nature Human Behaviour veröffentlichte Studie des Teams ergab, dass die KI mit diesen persönlichen Informationen um 64,4 Prozent überzeugender war als ihre menschlichen Gegner. Ohne die persönlichen Daten war die Leistung der KI von der der menschlichen Debattierer nicht zu unterscheiden.
„In den letzten Jahrzehnten hat die Verbreitung sozialer Medien und anderer Online-Plattformen das Potenzial der Massenüberredung erweitert, indem sie Personalisierung oder ‚Mikrotargeting‘ ermöglicht – die Anpassung von Nachrichten an eine Einzelperson oder eine Gruppe, um ihre Überzeugungskraft zu erhöhen“, schrieb das Team.
Als GPT-4 seine Argumente personalisieren konnte, war es deutlich überzeugender als jeder Mensch – die Wahrscheinlichkeit, jemanden zu überzeugen, stieg im Vergleich zu Mensch-Mensch-Debatten um 81,2 %. Wichtig ist, dass menschliche Debattierer nicht so überzeugend wurden, wenn sie Zugang zu diesen persönlichen Informationen erhielten.
„Im Zusammenhang mit Überzeugungsarbeit haben Experten vielfach ihre Besorgnis darüber geäußert, dass LLMs dazu missbraucht werden könnten, Online-Gespräche zu manipulieren und das Informationsökosystem zu verschmutzen, indem sie Fehlinformationen verbreiten, die politische Polarisierung verschärfen, Echokammern stärken und Einzelpersonen dazu bewegen, neue Überzeugungen anzunehmen“, fügten die Forscher hinzu.
GPT-4 kann mit Ihnen streiten und Sie, basierend auf einer Reihe von Fakten über Sie, hervorragend davon überzeugen, Ihren Standpunkt zu ändern, fanden die Forscher heraus. Das Team weist in der Diskussion des Papiers darauf hin, dass LLMs bereits zuvor für die Erzeugung und Verbreitung von Hassreden, Fehlinformationen und Propaganda kritisiert wurden; in großem Maßstab könnten LLMs mit persönlichen Daten der Nutzer für böswillige Zwecke missbraucht werden.
Die Forschung des Teams passt gut zu einem aktuellen ChatGPT-Update, das es dem Modell ermöglicht, sich an mehr Gespräche der Benutzer zu erinnern (mit deren Erlaubnis), was bedeutet, dass die KI auf einen Katalog mit Informationen über ihre Benutzer zugreifen kann.
Es gibt aber auch gute – oder schlechte – Nachrichten, je nachdem, wie man es sieht. GPT-4 war sehr erfolgreich darin, seine Gegner bei weniger kontroversen Themen zu überzeugen, aber bei festgefahrenen Positionen (in der Studie als „Meinungsstärke“ bezeichnet) hatte der Bot es schwerer, Menschen zum Umdenken zu bewegen. Anders ausgedrückt: Es gibt keine Anzeichen dafür, dass GPT-4 erfolgreicher wäre als Sie an der Thanksgiving-Debatte.
Darüber hinaus stellten die Forscher fest, dass GPT-4 eher eine logische und analytische Sprache verwendet, während menschliche Debattierer eher auf Personalpronomen und emotionale Appelle setzen. Überraschenderweise veränderte die Personalisierung weder Ton noch Stil von GPT-4 dramatisch – sie machte seine Argumente lediglich zielgerichteter.
In drei von vier Fällen konnten menschliche Teilnehmer ihren Gegner korrekt als KI identifizieren, was die Forscher auf den ausgeprägten Schreibstil von GPT-4 zurückführen. Die Teilnehmer hatten jedoch Schwierigkeiten, menschliche Gegner als solche zu identifizieren. Unabhängig davon änderten die Teilnehmer ihre Meinung eher , wenn sie glaubten, mit einer KI zu streiten, als wenn sie glaubten, ihr Gegner sei ein Mensch.
Das Team hinter der Studie erklärt, dieses Experiment solle als „Proof of Concept“ für das dienen, was auf Plattformen wie Reddit, Facebook oder X passieren könnte, wo Debatten und kontroverse Themen an der Tagesordnung sind – und Bots weit verbreitet sind. Die aktuelle Studie zeigt, dass KI kein Profiling auf dem Niveau von Cambridge Analytica benötigt, um menschliche Meinungen zu beeinflussen. Dies gelang den Maschinen mit nur sechs Arten personenbezogener Informationen.
Da sich immer mehr Menschen bei Routineaufgaben, Hausaufgaben, Dokumentationen und sogar Therapien auf LL.M. verlassen, ist es wichtig, dass menschliche Nutzer mit den Informationen, die sie erhalten, vorsichtig umgehen. Es ist ironisch, dass soziale Medien – einst als Bindeglied des digitalen Zeitalters angepriesen – Einsamkeit und Isolation fördern, wie zwei Studien über Chatbots im März zeigten .
Selbst wenn Sie sich also in einer Debatte mit einem LLM befinden, fragen Sie sich: Was genau bringt es, ein so kompliziertes menschliches Thema mit einer Maschine zu diskutieren? Und was verlieren wir, wenn wir die Kunst der Überzeugung Algorithmen überlassen? Beim Debattieren geht es nicht nur darum, einen Streit zu gewinnen – es ist eine urmenschliche Angelegenheit. Es gibt einen Grund, warum wir echte Gespräche suchen, insbesondere Einzelgespräche: Um persönliche Verbindungen aufzubauen und Gemeinsamkeiten zu finden – etwas, wozu Maschinen mit all ihren leistungsstarken Lernwerkzeugen nicht in der Lage sind.
gizmodo