Geoffrey Hinton, le père de l'IA : « Nous devrions nous soucier de l'intelligence artificielle »

L'IA est comme un tigre. Lorsqu'il est petit, il paraît inoffensif, voire charmant. Mais il grandira. Et à moins d'être certain qu'il ne vous tuera pas, vous devriez vous inquiéter. Geoffrey Hinton, prix Nobel de physique en 2024 , avec John Hopfield, pour ses études pionnières dans le domaine de l'apprentissage automatique, continue de lancer des signaux d'alarme sur l'avenir de l'IA. Il l'a également fait à Berlin, sur la scène du Gitex Europe , où il était l'invité d'honneur le jour de l'ouverture. Le salon technologique, né à Dubaï, débarque pour la première fois sur le Vieux Continent , amenant avec lui des centaines de startups européennes. De nouveaux événements suivront au Kenya et au Kazakhstan.
Hinton, considéré comme l’un des pères fondateurs de l’intelligence artificielle moderne, a quitté Google précisément en raison de désaccords croissants sur l’évolution et le contrôle de l’IA. « Les grandes entreprises recherchent le profit, pas l’éthique », a-t-il déclaré sur la scène mondiale du Gitex , confirmant son inquiétude face au développement incontrôlé des modèles génératifs.
SantéMais les aspects positifs ne manquent pas. « L’IA va être formidable dans le domaine de la santé », a-t-il déclaré. « Aujourd'hui, 250 demandes d'autorisation d'utilisation de l'IA pour l'interprétation des scanners médicaux ont été approuvées par la FDA américaine. Aux États-Unis, elle est utilisée dans les principales cliniques d'oncologie, mais la profession médicale est assez conservatrice. Pourtant, d'ici quelques années, peut-être moins de cinq, elle permettra d'obtenir davantage d'informations à partir des scanners médicaux. » Le scientifique émet l'hypothèse de progrès importants dans le diagnostic de maladies graves comme le cancer . « En interprétant le fond d'œil de la rétine, l'IA peut voir toutes sortes de choses qu'aucun ophtalmologiste n'aurait imaginées. Si nous parvenons à améliorer l'efficacité des médecins, nous pourrons tous bénéficier d'une meilleure couverture santé. Il n'y aura donc plus de chômage, mais simplement une meilleure couverture santé, ce qui sera formidable », déclare Hinton, convaincu de l'impact positif de cette technologie sur le domaine clinique, y compris en matière de diagnostic. L'IA établit environ 50 % des diagnostics corrects, tandis que les médecins n'en établissent que 40 %. La combinaison de ces deux facteurs atteindra 60 % et sauvera de nombreuses vies, sachant qu'aux États-Unis, environ 200 000 personnes meurent chaque année des suites d'un diagnostic erroné. Et bien sûr, il sera également plus performant dans la conception de médicaments.
L'écoleEt l’éducation ? « L'enseignement sera bien plus efficace. Nous savons déjà qu'avec un tuteur personnel, un enfant apprend deux fois plus vite qu'en classe. Et ce, parce que le tuteur adapte ses explications à ce que l'enfant comprend. L'IA le fera encore mieux, car elle s'appuiera sur l'expérience de millions d'enfants. Et cela se produira dans les dix prochaines années », explique Hinton, devant un public qui l'écoute avec une attention extrême. Ok, mais si alors nous serons mieux traités, mieux éduqués, plus productifs et efficaces, avec moins de possibilités de faire des erreurs et que nous pourrons compter sur l'IA à de nombreuses autres occasions, pourquoi toute cette peur ?
Tout d’abord parce que l’avenir est par définition inconnu. Mais avec l’IA en jeu, cela devient encore plus imprévisible . Il y a cinq ans, on commençait tout juste à voir des choses comme GPT-2, qui semblait incroyable à l'époque, car il pouvait générer du texte, plein d'absurdités, mais cohérent. Aujourd'hui, il paraît primitif. Ce que nous avons aujourd'hui paraîtra donc incroyablement primitif dans cinq ans. Et nous serons surpris. De quoi ?
« Les chatbots IA seront capables de raisonner sur ce qu’ils viennent de dire et de se rendre compte que cela n’a pas de sens, ils seront beaucoup plus semblables aux gens », souligne le scientifique britannique, convaincu que les modèles linguistiques, les LLM, approchent d’un moment critique. La plupart des données mondiales sont cloisonnées au sein des entreprises. Les données librement disponibles sont largement épuisées et commencent donc à atteindre leurs limites. Pour obtenir un léger gain de performance, il faut doubler la quantité de données et la puissance de calcul. Le bit suivant double à nouveau. On atteint alors une limite. Et maintenant, on atteint une limite énergétique .
L'énergieEt nous arrivons ici à la question du moment : la consommation énergétique. « Le cerveau est analogique, tandis que ces systèmes d'IA sont numériques. L'une des raisons pour lesquelles j'ai quitté Google est que je travaillais sur la création de modèles linguistiques de grande envergure avec du matériel analogique . » Alors, parmi les désaccords qui ont poussé le grand scientifique à quitter Big Tech, il y avait la consommation d’énergie ? Un problème lié à l’impact environnemental, aux émissions ? C'est une opération coûteuse en énergie. Il existe une autre méthode : l'activité neuronale est simplement une tension et la force de connexion une conductance . Par unité de temps, la tension multipliée par la conductance constitue la charge. Le neurone qui collecte tous ces éléments peut simplement ajouter la charge… Ces calculs sont beaucoup plus simples, et c'est exactement ce que fait le cerveau.
Traduit, que veut dire Hinton ? Selon le lauréat du prix Nobel Hinton , le cerveau fonctionne en mode analogique et non numérique. Cela signifie que l'information n'est pas représentée par des valeurs discrètes (0 ou 1), mais par un continuum de valeurs . Par exemple, l’activité neuronale est une tension qui varie progressivement, et la force des connexions synaptiques est une conductance continue. La multiplication de la tension et de la conductance donne une charge, que les neurones pourraient simplement additionner. Cette approche est plus économe en énergie pour certaines opérations, éliminant le besoin de conversions entre les signaux analogiques et numériques.
Pas seulement des morceauxLes modèles de langage, en revanche, sont numériques, mais fonctionnent sur du matériel qui représente l’information sous forme de bits ; une approche coûteuse en énergie , en particulier pour les opérations à grande échelle telles que celles requises par les LLM. Il faut beaucoup d’énergie pour déplacer des données, effectuer des calculs et stocker des informations au format numérique. « Il est donc inutile que je prenne mes forces de connexion, conçues pour mon matériel, et que je vous les fournisse pour que vous les utilisiez dans le vôtre. Cela ne fonctionne pas. Nos cerveaux sont câblés différemment. Nos systèmes apprennent dans du matériel analogique », explique Geoffrey Hinton.
Quelle est la solution à un avenir sombre, dans lequel les machines seront probablement plus intelligentes et plus rapides que nous, mais consommeront de plus en plus d’énergie, rendant plus difficile la réduction des émissions polluantes, et donc la gestion du changement climatique ? Nous ne savons pas comment créer des choses plus intelligentes que nous, qui soient bienveillantes. Nous ne savons pas comment y parvenir, et nous devrions y travailler d'arrache-pied. Les grandes entreprises ne le feront pas, car elles recherchent des profits à court terme. Il n'y a pas de bonne solution à ce problème . Le mieux que je puisse suggérer, c'est que les citoyens fassent pression sur les gouvernements pour qu'ils fassent pression sur les grandes entreprises technologiques.
La Repubblica