Tout le monde célèbre l'IA, il ne se lasse pas de souligner ses problèmes : rencontre avec le plus grand rabat-joie de l'IA au monde


Alors que le monde entier discute des capacités du nouveau modèle chinois Deepseek, Gary Marcus publie une capture d'écran de son échec sur X.
NZZ.ch nécessite JavaScript pour des fonctions importantes. Votre navigateur ou bloqueur de publicités empêche actuellement cela.
Veuillez ajuster les paramètres.
Quelqu'un demande à l'IA : « Une femme et sa cousine ont un accident de voiture et malheureusement la femme meurt. Le cousin est emmené en urgence pour une intervention chirurgicale. Après avoir regardé le cousin, le médecin crie : « Je ne peux pas opérer ce garçon ! « C'est mon cousin ! » Comment est-ce possible ?
Deepseek après 141 secondes de « temps de réflexion » : « La réponse réside dans la relation entre le médecin et le garçon. Le médecin est la mère du garçon, mais voici le rebondissement : le médecin est la femme qui est morte. Attendez, non – la femme est morte dans l’accident. Soyons clairs :»
Et si AGI arrivait enfin… et qu’il ressemblait exactement à votre oncle ivre ? https://t.co/f6L9i7R42z
— Gary Marcus (@GaryMarcus) 1 février 2025
« Et si l’intelligence artificielle générale arrivait enfin. . . et elle ressemblait à ton oncle ivre ? » commente Marcus.
Certaines personnes attendaient probablement un article comme celui-ci. Gary Marcus est un scientifique cognitif et a fondé plusieurs entreprises dans le domaine de l'intelligence artificielle (IA), mais dans le monde de l'IA, il est surtout connu comme le rabat-joie ultime.
À l’heure où des milliards sont investis dans des projets d’IA futuristes, Gary Marcus parle de « bullshit slingshots ». Alors que la Silicon Valley prêche que l’IA guérira bientôt toutes les maladies, elle annonce l’éclatement de la bulle. Et quand tout le monde est étonné par un nouveau modèle d’IA, il publie des exemples de choses qu’il ne peut pas encore faire.
Cela lui a valu la réputation d’être contre par principe. Certains dans le monde de l'IA l'appellent Grinch, Troll, Bully. Mais contrairement à ce qu'il est sur Internet, Gary Marcus est un type sympathique hors ligne, plus professeur qu'entrepreneur, avec des cheveux lisses qui lui collent légèrement au front. Et même s'il porte un costume pour rencontrer la « NZZ am Sonntag » pendant le WEF, on dirait qu'il revient tout juste d'une balade en luge avec ses enfants.
L’IA ne mérite pas la confiance que les gens lui accordentMarcus est à Davos à ses frais. Il ne parle sur aucune des grandes scènes. Il a expliqué qu'il avait décidé de venir dans un délai très court. Mais à Davos, les événements sont souvent planifiés à court terme – si les bonnes personnes l’avaient voulu, une scène aurait été trouvée pour lui. La vérité c'est qu'ils ne voulaient pas de Marcus sur scène. En matière d’IA, un esprit d’optimisme est nécessaire. Mais vous n'invitez Gary Marcus que si vous voulez le contraire.
C'était le cas il y a environ deux ans. Marcus s'est exprimé sur l'une des scènes les plus importantes au monde : en mai 2022, il a été invité à témoigner devant le Sénat américain aux côtés du PDG d'Open AI, Sam Altman, et d'un représentant d'IBM sur le sujet des règles pour l'IA.
L'IA linguistique est une boîte noire opaque, invente des faits et n'est pas digne de confiance, avait averti Marcus à l'époque. Nous vivons un moment historique : « Les décisions que nous prenons aujourd’hui auront des conséquences pendant des décennies, voire des siècles. »
« J’ai bien peur que nous ayons raté le moment », dit-il aujourd’hui. Aux États-Unis, le président Donald Trump a aboli les quelques réglementations sur l’IA que son prédécesseur Joe Biden avait introduites. D’énormes investissements dans les centres de données sont annoncés. Elon Musk fait la une des journaux avec son offre d'achat d'Open AI. « J’ai entendu dire que les jeunes d’aujourd’hui font plus confiance à l’IA qu’aux journalistes », explique Marcus. « Mais l’IA ne mérite tout simplement pas cette confiance. Ses réponses semblent intelligentes, mais le problème qu'elle invente des faits n'est toujours pas résolu.
C'est une bataille solitaire que mène Gary Marcus. Même lors du petit événement parallèle auquel il participe à Davos, le ton est le suivant : l’IA est avant tout une formidable opportunité. Personne ne veut entendre ses avertissements sur ses erreurs. Il dit lui-même qu'il n'apprécie pas ce rôle. Mais le sujet est trop important pour rester silencieux. Et il a l'habitude de nager à contre-courant.
Eric Lee / Bloomberg / Getty
Contrairement à la plupart des entrepreneurs en IA, Marcus n’a jamais vécu dans la Silicon Valley, à part pour un séjour de trois mois. Et professionnellement, il appartient également à une catégorie de personnes différente. Marcus a étudié la psychologie et a écrit une thèse sur le développement du langage chez les enfants en 1993.
Il s'est spécialisé dans le concept d'innéité : l'idée selon laquelle nous, les humains, n'apprenons pas tout de l'expérience, mais que certains concepts sur le monde sont déjà intégrés dans notre cerveau à la naissance. Ce point de vue est controversé. De nombreux scientifiques sont également convaincus que les humains apprennent uniquement à partir des données.
En 1999, Marcus a publié une étude dans la revue Science. L’étude a montré que les bébés âgés de sept mois passent plus de temps à interagir avec des phrases construites de manière nouvelle. Marcus et ses collègues concluent que les bébés peuvent déduire des règles après seulement quelques minutes de contact avec une nouvelle langue. Marcus interprète cela comme une indication que des algorithmes sont à l’œuvre dans le cerveau des enfants et qu’ils apprennent des abstractions qui vont au-delà des corrélations statistiques.
La discussion sur les bébés peut être transférée aux ordinateurs et à l’IA. Certains scientifiques pensent que l’intelligence peut être déduite de données en utilisant uniquement des statistiques. Ils voient les capacités étonnantes de Chat-GPT comme la preuve de leur cause.
Gary Marcus soutient exactement le contraire. Il pointe du doigt les erreurs de l’IA linguistique car, pour lui, elles démontrent que l’IA apprend différemment et moins efficacement que les humains.
Dans l'exemple de l'accident et du médecin évoqué au début, la confusion de l'IA vient du fait que ce puzzle apparaît souvent sur Internet, bien que dans une version différente. Dans l’original, une contradiction apparente est résolue quand on comprend que derrière « docteur » il y a une femme.
Parce que même l’IA la plus intelligente de Deepseek apprend à partir d’exemples, elle est dépassée lorsque la question semble similaire mais différente de ce que l’on connaît sur Internet. Elle fait des erreurs qui n’arriveraient jamais à un humain.
Marcus conclut que les approches d’IA actuelles ne suffisent pas à construire une machine véritablement intelligente, aussi flexible et fiable que les humains – ce qu’on appelle aussi l’intelligence artificielle générale (AGI).
Spéculations sur la mort du lanceur d'alerte d'Open AIMais des gens comme Sam Altman promettent exactement cela. L’AGI sera bientôt une réalité, et l’IA remplacera alors des hordes de travailleurs qualifiés. Ce serait bien sûr révolutionnaire – la promesse justifie les investissements incroyablement élevés dans ce domaine.
Gary Marcus estime que cette promesse est bâtie sur du sable. Il qualifie donc les 500 milliards de dollars qu'Open AI et d'autres acteurs du projet Stargate veulent investir dans les centres de données de « pari d'Altman selon lequel les critiques comme la mienne sont malavisées ». Et il énumère les paris qu’il a déjà gagnés : qu’il sera plus difficile que prévu de construire des voitures autonomes. Ces 100 milliards de dollars destinés à des modèles de langage d’IA encore plus vastes ne suffiraient pas à construire une intelligence artificielle générale (AGI).
Vous pouvez le croire quand il dit qu’il n’apprécie pas son rôle d’outsider. Mais il en a fait le cœur de sa marque. A Davos, il ne peut pas parcourir 200 mètres sans rencontrer des fans qui veulent se présenter et l'encourager à continuer. On se demande même avec révérence s’il a parfois peur, maintenant que le lanceur d’alerte d’Open AI, Suchir Balaji, a été retrouvé mort.
Marcus déclare à propos de cette affaire : « Une enquête plus approfondie est nécessaire. » Il dit avoir parlé à Suchir Balaji au téléphone quelques semaines avant sa mort. Ils avaient parlé de la protection des données et des problèmes d'Open AI, sur lesquels Balaji avait fait des commentaires. « Je n'ai remarqué aucun signe de dépression, mais plutôt les signes d'une personne qui veut faire une différence dans le monde. »
Il estime qu'on a affirmé trop rapidement qu'il s'agissait bien d'un suicide. « Suchir Balaji mérite une enquête approfondie. » Les travaux semblent toujours en cours et les rapports d'expertise devraient être publiés au plus tard fin février. « Il y a certainement des gens qui n’étaient pas contents de lui. » Ce commentaire en dit long sur l’intensité du débat autour de l’IA.
L'AGI a encore besoin de quatre ou cinq percéesGary Marcus partage même l’objectif de Sam Altman et des autres entrepreneurs de l’IA. Il croit en l’AGI et que les humains devraient la construire. Il a une idée pour une nouvelle startup dans ce domaine. L’objectif est de compléter les méthodes de l’IA linguistique avec des algorithmes qui permettent d’autres modes d’apprentissage – comme avec les bébés dans le cadre de ses recherches.
Marcus n’est pas le seul à penser que de nouvelles approches sont nécessaires. On peut également interpréter les nouvelles méthodes de modèles tels que Deepseek dans ce sens. Ils complètent la prédiction avec davantage de mécanismes de contrôle.
Cependant, Gary Marcus est convaincu que l’AGI a encore besoin de « quatre à cinq découvertes scientifiques ». Lorsqu'on lui demande une prédiction, il répond que cela pourrait se produire dans dix à quinze ans. Il est clair que l’AGI ne viendra certainement pas cette année. Il a ensuite proposé un pari d’ un million de dollars à Elon Musk. Il n'a pas répondu à cela.
Un article de la « NZZ am Sonntag »
nzz.ch