Singapurs Vision für KI-Sicherheit überbrückt die Kluft zwischen den USA und China

Die Regierung Singapurs hat heute nach einem Treffen von KI-Forschern aus den USA, China und Europa einen Plan für die globale Zusammenarbeit im Bereich der Sicherheit künstlicher Intelligenz veröffentlicht. Das Dokument legt eine gemeinsame Vision für die Arbeit an der KI-Sicherheit durch internationale Zusammenarbeit statt durch Wettbewerb dar.
„Singapur ist eines der wenigen Länder weltweit, das sowohl mit Ost als auch mit West gut auskommt“, sagt Max Tegmark, Wissenschaftler am MIT, der letzten Monat das Treffen der KI-Koryphäen mitorganisierte. „Sie wissen, dass sie [künstliche Intelligenz] nicht selbst entwickeln werden – sie wird es sich antun lassen. Daher liegt es in ihrem großen Interesse, dass die Länder, die sie entwickeln werden, miteinander reden.“
Die Länder, denen der Aufbau von AGI am ehesten zugetraut wird, sind natürlich die USA und China – und doch scheinen diese beiden Länder eher darauf aus zu sein, sich gegenseitig auszumanövrieren, als zusammenzuarbeiten. Nachdem das chinesische Startup DeepSeek im Januar ein hochmodernes Modell vorgestellt hatte , bezeichnete Präsident Trump dies als „Weckruf für unsere Branchen“ und sagte, die USA müssten sich „konzentriert auf den Wettbewerb konzentrieren, um zu gewinnen“.
Der Singapur-Konsens über globale Forschungsprioritäten zur KI-Sicherheit fordert Forscher zur Zusammenarbeit in drei Schlüsselbereichen auf: Untersuchung der Risiken, die von bahnbrechenden KI-Modellen ausgehen, Erforschung sichererer Möglichkeiten zum Aufbau dieser Modelle und Entwicklung von Methoden zur Steuerung des Verhaltens der fortschrittlichsten KI-Systeme.
Der Konsens wurde bei einem Treffen am 26. April entwickelt, das parallel zur International Conference on Learning Representations (ICLR) stattfand, einer führenden KI-Veranstaltung, die dieses Jahr in Singapur stattfand.
Forscher von OpenAI, Anthropic, Google DeepMind, xAI und Meta nahmen an der Veranstaltung zur KI-Sicherheit teil, ebenso wie Wissenschaftler von Institutionen wie dem MIT, Stanford, Tsinghua und der Chinesischen Akademie der Wissenschaften. Experten von KI-Sicherheitsinstituten aus den USA, Großbritannien, Frankreich, Kanada, China, Japan und Korea nahmen ebenfalls teil.
„In einer Ära geopolitischer Fragmentierung ist diese umfassende Synthese modernster Forschung zur KI-Sicherheit ein vielversprechendes Zeichen dafür, dass die Weltgemeinschaft mit einem gemeinsamen Engagement zusammenkommt, eine sicherere KI-Zukunft zu gestalten“, sagte Xue Lan, Dekan der Tsinghua-Universität, in einer Erklärung.
Die Entwicklung immer leistungsfähigerer KI-Modelle, von denen einige über überraschende Fähigkeiten verfügen, hat Forscher vor einer Reihe von Risiken beunruhigt. Während sich einige auf kurzfristige Schäden konzentrieren, darunter Probleme durch voreingenommene KI-Systeme oder das Potenzial für Kriminelle, die Technologie auszunutzen , glauben viele, dass KI eine existenzielle Bedrohung für die Menschheit darstellen könnte, da sie beginnt, den Menschen in immer mehr Bereichen auszustechen. Diese Forscher, manchmal auch als „KI-Doomer“ bezeichnet, befürchten, dass Modelle Menschen täuschen und manipulieren könnten, um ihre eigenen Ziele zu verfolgen.
Das Potenzial der KI hat zudem Spekulationen über ein Wettrüsten zwischen den USA, China und anderen mächtigen Nationen geschürt. In politischen Kreisen gilt die Technologie als entscheidend für wirtschaftlichen Wohlstand und militärische Dominanz, und viele Regierungen haben versucht, ihre eigenen Visionen und Vorschriften für ihre Entwicklung zu entwickeln.
Das Debüt von DeepSeek im Januar verstärkte die Befürchtung, dass China die USA einholen oder sogar überholen könnte, trotz der Bemühungen, Chinas Zugang zu KI-Hardware durch Exportkontrollen einzuschränken. Nun erwägt die Trump-Regierung zusätzliche Maßnahmen, um Chinas Fähigkeit zur Entwicklung hochmoderner KI einzuschränken.
Die Trump-Regierung hat zudem versucht, die Risiken der KI herunterzuspielen und stattdessen einen aggressiveren Ansatz bei der Entwicklung der Technologie in den USA zu verfolgen. Auf einem wichtigen KI-Treffen in Paris im Jahr 2025 erklärte Vizepräsident JD Vance, die US-Regierung wünsche sich weniger Einschränkungen bei der Entwicklung und dem Einsatz von KI und bezeichnete den bisherigen Ansatz als „zu risikoscheu“.
Der MIT-Wissenschaftler Tegmark sagt, dass einige KI-Forscher bestrebt seien, „nach Paris das Blatt etwas zu wenden“, indem sie die Aufmerksamkeit wieder auf die potenziellen Risiken richten, die von einer immer leistungsfähigeren KI ausgehen.
Auf dem Treffen in Singapur präsentierte Tegmark ein technisches Papier, das einige Annahmen über die sichere Entwicklung von KI in Frage stellte. Einige Forscher hatten zuvor vorgeschlagen, dass es möglich sein könnte, leistungsstarke KI-Modelle mithilfe schwächerer zu steuern. Tegmarks Papier zeigt jedoch, dass diese Dynamik in einigen einfachen Szenarien nicht funktioniert und somit möglicherweise nicht verhindern kann, dass KI-Modelle fehlschlagen.
„Wir haben unser Bestes gegeben, um Zahlen zu liefern, aber technisch funktioniert es nicht auf dem gewünschten Niveau“, sagt Tegmark. „Und wissen Sie, es steht ziemlich viel auf dem Spiel.“
wired