La vision de Singapour en matière de sécurité de l'IA comble le fossé entre les États-Unis et la Chine

Le gouvernement de Singapour a publié aujourd'hui un plan de collaboration mondiale sur la sécurité de l'intelligence artificielle , à l'issue d'une réunion de chercheurs en IA des États-Unis, de Chine et d'Europe. Ce document expose une vision commune pour travailler sur la sécurité de l'IA par la coopération internationale plutôt que par la concurrence.
« Singapour est l'un des rares pays au monde à s'entendre aussi bien avec l'Orient qu'avec l'Occident », explique Max Tegmark, scientifique au MIT qui a contribué à l'organisation de la réunion des sommités de l'IA le mois dernier. « Ils savent qu'ils ne vont pas développer [l'intelligence artificielle générale] eux-mêmes – ils se la feront faire – il est donc dans leur intérêt que les pays qui vont la développer se concertent. »
Les pays considérés comme les plus susceptibles de développer l'IAG sont, bien sûr, les États-Unis et la Chine, et pourtant, ces nations semblent plus déterminées à se surpasser mutuellement qu'à collaborer. En janvier, après le lancement d'un modèle innovant par la start-up chinoise DeepSeek, le président Trump a qualifié cet événement de « signal d'alarme pour nos industries » et a déclaré que les États-Unis devaient se concentrer pleinement sur la compétition pour gagner.
Le consensus de Singapour sur les priorités mondiales de recherche en matière de sécurité de l’IA appelle les chercheurs à collaborer dans trois domaines clés : étudier les risques posés par les modèles d’IA de pointe, explorer des moyens plus sûrs de construire ces modèles et développer des méthodes pour contrôler le comportement des systèmes d’IA les plus avancés.
Le consensus a été élaboré lors d’une réunion tenue le 26 avril en marge de la Conférence internationale sur les représentations de l’apprentissage (ICLR), un événement majeur de l’IA organisé à Singapour cette année.
Des chercheurs d'OpenAI, d'Anthropic, de Google DeepMind, de xAI et de Meta ont assisté à l'événement sur la sécurité de l'IA, ainsi que des universitaires d'institutions telles que le MIT, Stanford, Tsinghua et l'Académie chinoise des sciences. Des experts d'instituts de sécurité de l'IA des États-Unis, du Royaume-Uni, de France, du Canada, de Chine, du Japon et de Corée étaient également présents.
« À une époque de fragmentation géopolitique, cette synthèse complète des recherches de pointe sur la sécurité de l'IA est un signe prometteur que la communauté mondiale se rassemble autour d'un engagement commun pour façonner un avenir de l'IA plus sûr », a déclaré Xue Lan, doyen de l'Université Tsinghua, dans un communiqué.
Le développement de modèles d'IA de plus en plus performants, dont certains présentent des capacités surprenantes, a suscité chez les chercheurs des inquiétudes quant à divers risques. Si certains se concentrent sur les dommages à court terme, notamment les problèmes causés par des systèmes d'IA biaisés ou la possibilité que des criminels exploitent cette technologie , un nombre important estime que l'IA pourrait représenter une menace existentielle pour l'humanité, car elle commence à surpasser les humains dans de plus en plus de domaines. Ces chercheurs, parfois qualifiés de « pénalisateurs de l'IA », craignent que les modèles ne trompent et ne manipulent les humains pour atteindre leurs propres objectifs.
Le potentiel de l'IA a également alimenté les rumeurs d'une course aux armements entre les États-Unis, la Chine et d'autres puissances. Cette technologie est considérée par les milieux politiques comme essentielle à la prospérité économique et à la domination militaire, et de nombreux gouvernements ont cherché à définir leurs propres visions et réglementations régissant son développement.
Le lancement de DeepSeek en janvier a renforcé les craintes d'un rattrapage, voire d'une surclassement, de la part de la Chine par les États-Unis, malgré les efforts déployés pour limiter l'accès de la Chine au matériel d'IA par le biais de contrôles à l'exportation. L'administration Trump envisage désormais de nouvelles mesures visant à restreindre la capacité de la Chine à développer une IA de pointe.
L'administration Trump a également cherché à minimiser les risques liés à l'IA au profit d'une approche plus agressive pour développer cette technologie aux États-Unis. Lors d'une importante réunion sur l'IA à Paris en 2025, le vice-président J.D. Vance a déclaré que le gouvernement américain souhaitait moins de restrictions concernant le développement et le déploiement de l'IA, qualifiant l'approche précédente de « trop prudente ».
Tegmark, le scientifique du MIT, affirme que certains chercheurs en IA souhaitent « inverser un peu la tendance après Paris » en recentrant l’attention sur les risques potentiels posés par une IA de plus en plus puissante.
Lors de la réunion de Singapour, Tegmark a présenté un article technique remettant en question certaines hypothèses sur la manière dont l'IA peut être construite en toute sécurité. Certains chercheurs avaient précédemment suggéré qu'il serait possible de contrôler des modèles d'IA puissants à l'aide de modèles plus faibles. L'article de Tegmark montre que cette dynamique ne fonctionne pas dans certains scénarios simples , ce qui signifie qu'elle pourrait bien ne pas empêcher les modèles d'IA de dérailler.
« Nous avons fait de notre mieux pour chiffrer le projet, mais techniquement, cela ne fonctionne pas au niveau souhaité », explique Tegmark. « Et, vous savez, les enjeux sont considérables. »
wired