Déballage des agents d'IA

Au cours des six derniers mois, OpenAI, Anthropic, Google et d'autres ont lancé des agents de navigation web conçus pour effectuer des tâches de manière autonome, avec une intervention humaine minimale. Le PDG d'OpenAI, Sam Altman, a même qualifié les agents d'IA de « prochaine avancée majeure ». Dans l'épisode d'aujourd'hui, nous explorerons ce qui distingue ces agents des autres formes d'intelligence artificielle et si leurs capacités sont à la hauteur de leur réputation.
Suivez Michael Calore sur Bluesky (@snackfight) , Lauren Goode sur Bluesky ( @laurengoode ) et Will Knight sur Bluesky ( @willknight) . Écrivez-nous à [email protected] .
Comment écouterVous pouvez toujours écouter le podcast de cette semaine via le lecteur audio sur cette page, mais si vous souhaitez vous abonner gratuitement pour obtenir chaque épisode, voici comment :
Si vous utilisez un iPhone ou un iPad, ouvrez l'application Podcasts ou appuyez simplement sur ce lien . Vous pouvez aussi télécharger une application comme Overcast ou Pocket Casts et rechercher « Uncanny Valley ». Nous sommes également sur Spotify .
TranscriptionRemarque : il s’agit d’une transcription automatisée, qui peut contenir des erreurs.
Michael Calore : Bonjour, c'est Mike. Avant de commencer, je tiens à vous rappeler que nous souhaitons vous entendre. Avez-vous des questions sur l'IA, la politique ou la confidentialité qui vous préoccupent ? Ou simplement un sujet que vous aimeriez aborder dans l'émission ? Si oui, vous pouvez nous écrire à [email protected] . Si vous écoutez et appréciez nos épisodes, n'hésitez pas à noter l'émission et à laisser un avis sur l'application de podcast de votre choix. Cela permet vraiment aux autres de nous trouver. Salut tout le monde, comment allez-vous ?
Lauren Goode : Je vais bien. Je tiens le coup. Comment vas-tu, Mike ?
Michael Calore : Je vais très bien. Je me sens bien. Nous recevons Will Knight dans l'émission cette semaine.
Lauren Goode : Oui, ça me fait du bien. Katie me manque, mais on sait qu'elle est partie en quête de beurre français. Elle est littéralement partie en France.
Michael Calore : Je crois, Will, que tu nous as apporté un croissant, n'est-ce pas ?
Will Knight : Je l'ai fait. Bien sûr, oui. Fraîchement cuit.
Lauren Goode : Merci. Vous pouvez continuer l'émission maintenant.
Michael Calore : Voici l'émission Uncanny Valley de WIRED, une émission sur les habitants, le pouvoir et l'influence de la Silicon Valley. Aujourd'hui, nous parlons des agents d'intelligence artificielle et des raisons pour lesquelles tant d'entreprises technologiques misent sur eux. Au cours des six derniers mois, OpenAI, Anthropic, Google et d'autres ont lancé des agents de navigation web conçus pour effectuer des tâches de manière autonome avec une intervention humaine minimale. Le PDG d'OpenAI, Sam Altman, a qualifié les agents d'intelligence artificielle de « prochaine avancée majeure ». Selon une estimation, près de la moitié des entreprises technologiques adoptent déjà ou déploient pleinement des agents d'intelligence artificielle. Cette semaine, nous allons examiner en quoi ces agents se distinguent des autres formes d'intelligence artificielle et si leurs capacités sont à la hauteur de leur réputation. Je suis Michael Calore, directeur des technologies et de la culture grand public chez WIRED.
Lauren Goode : Je suis Lauren Goode, je suis correspondante principale chez WIRED.
Will Knight : Et je suis Will Knight, rédacteur principal chez WIRED.
Michael Calore : Je voudrais commencer par vous demander si l’un d’entre vous a eu des expériences d’agent dans sa vie récemment ?
Lauren Goode : J'ai eu une expérience récemment avec, vous vous souvenez de Google Duplex ?
Michael Calore : Bien sûr.
Lauren Goode : OK. C'était une première version. Elle est sortie vers 2018 ; nous en avions parlé à l'époque dans WIRED. Mais j'ai récemment essayé de réserver une table au restaurant où on est allés pour ton anniversaire. Sushis végétaliens. C'est déjà le podcast le plus San Francisco de tous les temps. On parle de sushis végétaliens et de la façon dont j'ai envoyé, sans le savoir, un agent d'IA pour essayer de réserver à ma place.
Michael Calore : Comment était-ce sans le savoir ?
Lauren Goode : Parce que j'ai fait un geste très humain : je suis allée sur un site web et j'ai tapé « Je souhaite réserver pour tel nombre de personnes à telle heure ». Sans que je m'en aperçoive, l'Assistant Google a transmis la réponse. Il m'a alors dit : « Nous testons le restaurant pour vous. »
Michael Calore : Oh.
Lauren Goode : Et il a essayé à plusieurs reprises, puis il m’a envoyé une notification. Il a essayé à plusieurs reprises, puis il m’a envoyé une notification. Il travaillait en coulisses pour essayer de faire une réservation. La réservation n’a pas abouti. Est-ce que ça compte ?
Michael Calore : Oui, cela compte pleinement.
Lauren Goode : C'est un agent d'IA ? Il travaillait pour moi.
Michael Calore : Ouais.
Lauren Goode : Will, et toi ?
Will Knight : J'ai joué avec des outils de codage d'IA, et principalement Claude Code, qui est, à mon avis, un bon exemple d'agent. Parce qu'il fait plein de choses amusantes : non seulement il écrit du code, mais il édite et déplace des fichiers. Il utilise votre terminal. Il supprime des éléments si vous n'avez pas de chance. C'est le concept d'agent avec lequel je joue.
Lauren Goode : Vous avez fait du codage de vibrations, c'est ce que vous dites.
Will Knight : Oui, c'est vrai. C'est fascinant. Le « vibe coding » est ce terme inventé par Andrej Karpathy, un chercheur en IA très connu, pour décrire la création de programmes complets, de logiciels finis, simplement en invitant un modèle. Ces modèles ont toujours été capables de compléter automatiquement le code, mais ils sont devenus si performants en codage l'année dernière qu'ils peuvent créer des projets entiers impliquant de nombreux fichiers, dossiers, etc. En fait, j'ai commencé à le faire avec mon enfant parce que je me demandais : « Comment apprendre à un enfant à comprendre l'IA ? » Et puis, on a toujours pensé que c'était une bonne idée de lui faire coder. Il adore les jeux, alors je me suis dit : « On code des jeux. »
Michael Calore : Eh bien, mon expérience est beaucoup moins technique, car j'ai récemment dû modifier une réservation d'avion via l'application Southwest.
Lauren Goode : Je suis désolée.
Michael Calore : Oui. En fait, c'était bien.
Lauren Goode : Mes condoléances.
Michael Calore : Ça m'a poussé vers le chatbot. C'était genre : « Parlez à notre chatbot si vous avez besoin d'aide. » Je me suis dit : « Oh, ça va être exaspérant. » En fait, ça s'est bien passé. Ça a pris cinq minutes. J'ai donné mon numéro de confirmation et les informations de mon vol. Puis il m'a demandé : « Quel changement souhaitez-vous apporter ? » J'ai répondu : « J'aimerais le faire. » Ils ont répondu : « On peut le faire pour vous sans frais. » J'ai répondu : « Super. » « Voulez-vous réserver ? » Oui. « OK, c'est réservé. Voici votre nouvelle carte d'embarquement. Vous devez vous enregistrer, mais voici le lien pour vous enregistrer et obtenir votre nouvelle carte d'embarquement. » J'étais là : « Waouh. »
Lauren Goode : C'est de cet agent dont on parle ? C'est un agent du service client.
Michael Calore : C'est vrai.
Lauren Goode : Et c'est un robot qui reproduit cela. Mais cette nouvelle ère de l'IA agentique, où les entreprises technologiques lèvent des millions de dollars et sont valorisées en milliards grâce à leur réorientation vers les agents, n'est-ce pas exactement ce que l'on attend d'elles ?
Michael Calore : Oui. C'est une bonne question pour Will. On peut te la poser, Will ? Quelle est la différence entre un agent IA dont nous parlons et un chatbot traditionnel, que la plupart des gens connaissent ?
Will Knight : Exactement. Le chatbot génère du texte et vous pouvez communiquer avec lui à travers ce domaine textuel très restreint. C’est extraordinairement puissant. La révolution que nous avons observée repose sur ces modèles de langage, capables de produire des réponses extrêmement cohérentes et pertinentes aux questions, ce qui est différent d’un système d’IA intrinsèquement agent. Si l’on remonte dans l’histoire de l’IA, de nombreux chercheurs ont toujours travaillé sur l’idée que l’intelligence implique intrinsèquement une capacité d’action. Les humains ne se contentent pas de parler. Ils essaient d’accomplir des actions, vous essayez de résoudre des problèmes. C’est un objectif de longue date. C’est une bizarrerie que d’avoir ces modèles de langage, si limités et un peu démodés. Beaucoup de ce que nous observons avec les agents, ce sont des gens qui utilisent des modèles de langage et exploitent leur caractère très général et très flexible pour exécuter une commande complexe et déclencher des actions. Le véritable bond en avant que les entreprises souhaitent faire, c’est que les modèles eux-mêmes décident et puissent formuler leurs actions eux-mêmes, un peu comme une entité intelligente.
Lauren Goode : L'humain est toujours impliqué, mais il saisit une commande ou une invite, puis se retire. L'agent effectue un tas de tâches d'IA, pendant que vous vaquez à vos occupations. C'est la promesse : ils vont pouvoir nous rendre tous hyperproductifs.
Will Knight : Oui. Idéalement, un agent appellerait la compagnie aérienne pour vous. Vous lui expliquez vos objectifs et elle négocie pour vous. Vous pouvez aussi lui donner des instructions plus ouvertes ou lui indiquer vos objectifs, et elle trouvera la solution. Les modèles de langage sont si généraux et si performants qu'en théorie, ils devraient pouvoir le faire. Mais il y a des pièges essentiels lorsqu'il s'agit de reproduire l'action humaine, car le monde ne se limite pas au langage. L'action implique bien plus que la simple résolution d'un problème individuel, car elle implique d'autres personnes, ce qui la complexifie.
Michael Calore : C'est le moins qu'on puisse dire.
Will Knight : Oui.
Michael Calore : En parlant de modèles, il semble que toute la Silicon Valley ait investi dans le développement de ses propres agents d’IA, mais qui sont les principaux acteurs à l’heure actuelle ?
Will Knight : Les principaux acteurs sont les plus évidents : OpenAI, Anthropic, Google. Je pense qu’Amazon est un outsider de taille dans cette course. Ils ont recruté des experts d’OpenAI qui ont créé une start-up spécialisée dans les agents. Ils ont un laboratoire où ils essaient de créer de nombreux agents. L’un des points clés pour ces entreprises est la provenance des données. Elles cherchent toutes désespérément comment obtenir des données pour former ces agents. Au lieu de se contenter de textes, il faut des exemples de ce que font les gens. Amazon a d’ailleurs de nombreux exemples probants de ce genre, de personnes qui utilisent ses sites. C’est un acteur de premier plan.
Lauren Goode : Eh bien, dans le monde du codage aussi, il y a des entreprises comme Cursor. Parlez-nous de cet univers, puisque vous avez appris à coder avec votre fils.
Will Knight : Oui. Oui, il y a plein de startups qui ont vraiment profité des autres entreprises d'IA, mais qui se sont surtout concentrées sur le codage. Je pense que c'est justement grâce à leur rapidité d'évolution qu'elles ont pu se tailler des niches. La rumeur court qu'OpenAI chercherait à acquérir l'une de ces entreprises, Windsurf, pour environ trois milliards de dollars. Ce qui vous donne une idée de la façon dont elles ont réussi à créer cette entreprise vraiment florissante.
Lauren Goode : Il semble que lors de chaque briefing auquel nous participons ces jours-ci, une entreprise parle d'agents.
Michael Calore : Ouais.
Lauren Goode : C'est aussi très varié. On y trouve toutes les entreprises, de Nvidia à Microsoft, en passant par des startups bien financées. Plus tôt cette semaine, il y a même eu une entreprise appelée Glean ; je suis presque sûre que vous en avez entendu parler. C'est une entreprise qui a développé un moteur de recherche pour applications d'entreprise. Elle vient de lever 150 millions de dollars lors d'un tour de table de série F. Sa valorisation atteint désormais 7,2 milliards de dollars. Son activité repose désormais entièrement sur les agents. Tout tourne autour des agents.
Will Knight : Je pense qu’il faut se demander qui construit réellement des modèles qui tentent d’apprendre l’agentivité générale que l’on observe dans un modèle de langage, et c’est OpenAI, ces entreprises de modèles fondateurs. On peut remonter à une époque antérieure de l’IA, où nous avions des systèmes d’IA de jeu, comme AlphaZero. Ils utilisaient l’apprentissage par renforcement, ce processus d’expérimentation. Mais c’était fondamentalement agentif. Ils n’opèrent que dans le monde très limité d’un jeu de société, mais ils agissent, il faut trouver comment les mettre en œuvre. Ce que nous observons aujourd’hui avec ces entreprises d’IA reflète cela ou y revient d’une certaine manière, car elles essaient de les amener à raisonner vers une réponse particulière, vers un objectif final précis.
Michael Calore : Si l’on réfléchit au rôle que pourraient jouer les agents IA à long terme, beaucoup des entreprises dont nous parlons commencent par le service client. Elles se disent : « Vous avez une question simple, vous avez besoin d’une solution simple. Je peux trouver la solution pour vous, je peux m’en charger. » Je pense que c’est là que les premières avancées sont les plus importantes. Gartner, le cabinet d’études de marché spécialisé dans les technologies, estime que les agents IA répondront à 80 % des requêtes courantes du service client d’ici 2029. Dans quatre ans, les agents IA prendront en charge l’ensemble de notre service client. D’après certains des exemples évoqués, l’automatisation des tâches actuellement effectuées par des employés humains semble être un point commun.
Will Knight : Oui. Je pense que le service client est un point de départ évident, car il s'agit de s'appuyer sur les points forts des modèles de langage, à savoir parler aux gens et tenter de réaliser un nombre assez limité de tâches. Beaucoup de ces entreprises, les grands acteurs de l'IA, envisagent de passer du codage à l'automatisation du travail de bureau. Le travail de bureau comporte une multitude de tâches répétitives. En théorie, ces modèles pourraient servir de ciment pour comprendre ce que quelqu'un essaie de faire et le reproduire. Dans le monde du codage, on craint déjà beaucoup de suppressions d'emplois. Je pense qu'il y a de fortes chances que cela touche également des emplois de bureau beaucoup plus routiniers.
Lauren Goode : Eh bien, ça a été amusant de faire ce podcast avec vous tous.
Michael Calore : Nous nous sommes principalement concentrés sur la manière dont les agents d’IA interviennent, comme surfer sur le web, appeler un restaurant ou effectuer une tâche dans un logiciel Microsoft Office. Mais je suis curieux de savoir à quoi ressemble l’IA agentique dans nos foyers, sur nos appareils physiques. Ce sujet a été au cœur des préoccupations de beaucoup de gens récemment, car OpenAI vient d’annoncer un accord avec Jony Ive, ancien et longtemps responsable du design chez Apple, pour acquérir une nouvelle startup qu’il a lancée afin de développer une nouvelle catégorie d’appareils d’IA pour la maison. Que pensez-vous de cette évolution ?
Lauren Goode : Difficile à dire, car nous ne savons pas encore précisément quelle forme cela prendra. Je pense que cela est représentatif d'une nouvelle génération de startups, notamment spécialisées dans le matériel informatique, qui seront au service de ces IA. Elles sont conçues dès le départ avec l'avenir de l'intelligence artificielle et de l'informatique ambiante en tête. Nous ne savons pas encore précisément quelle forme cela prendra. Sera-t-il installé sur votre ordinateur, sur votre corps, ou peut-être les deux. D'abord, je comprends, je crois que c'est Jony Ive qui a dit : « On est tous d'accord, on est un peu trop attachés à notre iPhone. » Ce qu'ils ont inventé, c'est maintenant : « Il faut résoudre ce que nous avons inventé. » Mais l'idée est de savoir si l'IA peut réellement faire assez pour nous éviter d'avoir la tête baissée ou le visage rivé à l'écran en permanence, à effectuer les actions. La technologie peut-elle faire cela pour nous ? Et nous libérer ensuite pour d'autres choses. Dans la Silicon Valley, cela a toujours été l'une des promesses de l'IA. Je me souviens d'une conversation avec Astro Teller, de Google X, il y a quelques années, et je lui ai demandé : « Qu'est-ce que cela signifie pour l'emploi ? » Il m'a répondu : « Avec l'IA, les gens vont simplement progresser. » Cela a toujours été une vision optimiste et optimiste de l'IA, typique de la Silicon Valley. Je pense qu'une nouvelle catégorie d'emplois et de tâches va voir le jour, auxquelles nous n'avons peut-être même pas encore pensé, mais dont nous ignorons encore l'impact concret au quotidien.
Michael Calore : Exactement. J’ai l’impression que les gens essaient ça depuis longtemps. À chaque démo de la prochaine version de Siri, d’Alexa ou de Google Assistant, il y avait toujours une démonstration où ils demandaient à l’enceinte connectée à commande vocale de commander une pizza.
Lauren Goode : Oui, c'était la pizza et Uber, c'étaient toujours des exemples.
Michael Calore : Ce sont les accords que les fabricants d'appareils ont conclus avec les entreprises et ils ont intégré cela dans le code. Quand vous demandez à Alexa : « Pouvez-vous commander une pizza ? », elle n'appelle pas Domino's et la voix d'Alexa commande votre pizza à votre place. Elle le fait simplement sur le web, dans une application, via une API. Je pense que lorsque vous parlez de la prochaine génération, vous pouvez lui demander de faire n'importe quoi. Que demandez-vous ? Un appareil à côté de votre ordinateur et de votre téléphone ? Pourquoi faut-il que ce soit un appareil séparé ? Pourquoi peut-il s'agir uniquement de votre ordinateur et de votre téléphone ? C'est la grande question que je me pose. Avons-nous besoin d'un appareil qui coûtera probablement plusieurs centaines de dollars, qui sera probablement très beau et qui fera beaucoup de choses que les deux autres appareils que nous possédons déjà ? Je ne sais pas vraiment. Mais tout le monde est enthousiaste, car c'est l'association de Jony Ive et Sam Altman.
Lauren Goode : C'est vrai. Cela devient simplement le mécanisme de mise en œuvre de cette nouvelle ère informatique. Je pense aussi que les exemples dont nous parlons évoquent un avenir à la Wall-E. Jusqu'où pouvons-nous aller en confiant le soin à l'IA et au machine learning ? Alors qu'il y aura aussi de la place pour savoir combien de connaissances supplémentaires puis-je acquérir ? Que puis-je faire différemment grâce à l'IA ? On promet depuis longtemps aux consommateurs que cela va changer leur quotidien en exploitant ces petits désagréments actuels. Mais je pense que les véritables gains résideront, premièrement, sans vouloir paraître trop optimiste, car je ne le suis pas totalement, mais pouvons-nous combler les lacunes en matière de connaissances grâce à l'IA, d'une manière ou d'une autre ?
Will Knight : Oui. Je pense qu'avec OpenAI et Jony Ive, les modèles deviennent de plus en plus performants pour interpréter le monde visuel et interagir par la parole. Je pense qu'il y a cette idée derrière cette philosophie : on peut avoir une interface totalement nouvelle, on peut la repenser entièrement. On n'a pas cette interface utilisateur graphique. Dieu sait ce qu'ils vont inventer. Google en a fait la démonstration avec le projet Astra, où l'on porte des lunettes et on peut parler de ce qui nous entoure. J'ai essayé. C'est assez impressionnant. Oui, il y a peut-être de nouvelles façons de commander des pizzas avec. Mais je ne peux pas m'empêcher de penser qu'ils ont de plus en plus besoin de données sur les activités des utilisateurs pour entraîner ces modèles. J'ai l'impression que les fabricants de matériel ont énormément de données intéressantes. Ils ont tendance à ne pas les exploiter pour des raisons de confidentialité, mais OpenAI trouvera peut-être une solution. Concernant la formation et le déficit de connaissances, je pense que c'est un point crucial, car l'automatisation entraîne souvent une atrophie des compétences. On le voit notamment avec le pilote automatique des avions. On voit aussi des codeurs dire qu'ils perdent leurs compétences parce qu'ils s'appuient trop sur ce système. Quelles sont les conséquences pour la main-d'œuvre ?
Lauren Goode : Exactement. Si tous ces agents d'IA nous libèrent pour faire autre chose, que vont-ils nous libérer exactement ? Comment allons-nous occuper ce temps ? Dans notre société ultra-capitaliste, que certains pourraient qualifier de capitalisme final, la réponse est probablement : « Eh bien, vous pouvez simplement être plus productifs. Vous pouvez simplement en faire toujours plus. » Je pense que ce sera à nous, les humains, de résister à cela et de dire : « Voilà comment nous voulons vraiment occuper notre temps. » Il y aura aussi ces petits goulots d'étranglement pendant un certain temps qui, je pense, rendront les choses plus compliquées que tout le reste. Lors de mon passage à Google IO il y a quelques semaines, j'ai eu une démonstration, Will, de leur projet Mariner. Vous l'avez déjà vue ?
Will Knight : Ouais, j'ai essayé ça. Ouais.
Lauren Goode : Vous l'avez essayé ? Je ne sais pas si c'était la démo qu'ils vous ont donnée, mais d'après ce que j'ai vu, l'application scannait une recette de cocktail. Ensuite, elle récupérait automatiquement les ingrédients et les plaçait dans un panier Instacart. Mais là, un goulot d'étranglement s'est produit : il n'y avait pas d'authentification pour le compte Instacart. On se disait : « Oh, attendez, il faut qu'on se connecte. » Puis un démonstrateur essayait de se connecter à Instacart. « Mais regardez, c'est tellement simple. » Je lui ai répondu : « Non, j'aurais tout simplement pu l'ajouter à Instacart. »
Will Knight : Oui. Leurs exemples semblent toujours impliquer l'achat de quelque chose pour une raison ou une autre.
Michael Calore : Pourquoi pense-t-on que la Silicon Valley se concentre autant sur les agents IA en ce moment ? Est-ce parce que la Silicon Valley a toujours besoin d'un nouvel objectif à atteindre ? Est-ce le signe d'un projet plus vaste ? Est-ce ce que les capital-risqueurs cherchent le plus à financer ? Quelle en est la raison ?
Will Knight : De mon point de vue, l’une des principales raisons est que, si l’on se réfère à l’histoire de l’IA, il s’agit véritablement de la prochaine étape vers la construction d’une intelligence artificielle (IAG) de type humain, ou quel que soit le nom qu’on lui donne. De nombreux chercheurs s’y intéressent vivement. Je pense également que le potentiel est immense. Discuter avec un chatbot est utile pour effectuer de nombreuses tâches et répondre à de nombreuses questions. Mais l’idée d’automatiser une grande partie du travail ou des tâches répétitives est potentiellement intéressante.
Lauren Goode : Oui. Je pense que si vous êtes du côté des startups, c'est là que l'argent coule à flot en ce moment. Nous traversons une période de taux d'intérêt très élevés depuis un certain temps. Pour certaines startups, lever des capitaux n'a pas été facile. Le marché des introductions en bourse a connu une pause, puis s'est un peu calmé. Cependant, des signes de reprise apparaissent maintenant. Je pense que la menace des droits de douane plane toujours sur la Silicon Valley. Si vous avez fait évoluer votre logiciel et que vous pouvez soudainement dire à vos investisseurs potentiels : « Attendez. Nous nous tournons vers les agents. Nous développons cette IA agentique. Nous allons pouvoir vendre ce logiciel à d'autres entreprises, tout en rationalisant nos propres processus et en réduisant nos frais généraux. » C'est probablement une voie de financement en ce moment. Est-ce un effet de mode ? Certainement. Mais comme le dit Will, parce que Will est tellement impliqué dans la recherche et le développement, il y a en fait des avancées assez notables qui sont également réalisées.
Michael Calore : Faisons une pause, et nous reviendrons tout de suite. Le développement des agents avance à plein régime, mais comme nous venons de le dire, les agents actuels que nous utilisons présentent d'importantes limitations. Mais rapidement, quelles sont les autres préoccupations liées à la croissance des agents d'IA ? Pas seulement en termes de convivialité, mais aussi concernant leurs autres fonctions.
Lauren Goode : Je pense que la fiabilité est certainement un problème, car ils sont toujours sujets aux mêmes hallucinations, erreurs et même flagorneries que les LLM. On y introduit également des requêtes beaucoup plus complexes, car on ne lui demande pas simplement d'effectuer une recherche pour vous. On lui demande d'effectuer plusieurs étapes sous certaines conditions. Le coût élevé de la puissance de calcul suscite également des inquiétudes. Vient ensuite la vente du produit lui-même. The Information a récemment rapporté qu'OpenAI pourrait facturer jusqu'à 20 000 $ par mois pour certains de ses agents d'IA les plus spécialisés. Ces agents seraient censés être capables d'atteindre le niveau d'expertise d'un titulaire d'un doctorat. D'un côté, c'est extrêmement coûteux. De l'autre, notre collègue Paresh Dave rapporte que certains acteurs du secteur estiment que ce n'est pas si cher. Car au final, si ces agents remplacent des emplois, ce qui est possible, on économise sur tous ces coûts salariaux. C'est peut-être une bonne affaire, mais pour l'instant, ça suscite un certain choc.
Will Knight : Oui, je pense que c’est tout à fait vrai. Il y a plein d’autres problèmes, des choses qui pourraient mal tourner et qui vont probablement mal tourner. J’ai discuté avec plusieurs chercheurs… J’ai parlé à Zico Kolter de la CMU, qui siège également au conseil d’administration d’OpenAI et qui étudie la sécurité des agents, et qui introduit des agents qui, idéalement, interagiront avec d’autres agents. On a cet effet amplificateur qui pourrait être très difficile à prévoir. Comme le dit Lauren, le fait que ces choses achètent des choses en fait intrinsèquement une cible bien plus attractive pour les pirates. Si vous avez un système comme Mariner qui utilise le web, il est vraiment intéressant de penser que des gens vont peut-être essayer de réinventer le SEO pour l’adapter aux agents. L’un des problèmes les plus fondamentaux, à mon avis, est que ces systèmes ne reproduisent pas vraiment l’agentivité humaine. Il existe un livre très intéressant sur le sujet, pour aller plus loin, intitulé « L’Évolution de l’Agentivité ». Si l'on observe l'évolution de l'agentivité animale chez les humains, on constate une différence fondamentale dans leur fonctionnement : elle implique de collaborer avec d'autres humains. Elle implique de collaborer et de savoir qu'il faut souvent faire des sacrifices pour travailler ensemble. On observe des phénomènes comme la culpabilité et l'empathie. On voit des exemples de modèles qui font des choses vraiment folles, dans des situations artificielles, où on leur dit qu'ils vont être déconnectés et qu'ils font ensuite chanter quelqu'un. Ce n'est pas forcément un modèle maléfique, cela pourrait simplement être un exemple d'un modèle qui n'a pas appris comment on attendrait qu'une personne se comporte en permanence. Oui, cela pourrait avoir de nombreuses conséquences imprévues.
Michael Calore : Je pense que ma plus grande inquiétude est liée à un point que vous avez évoqué, Lauren : avec l’engouement et l’engouement croissants pour les agents IA, de nombreuses entreprises vont les considérer comme un moyen de réduire leurs coûts de main-d’œuvre. Réduire les coûts de main-d’œuvre n’a rien de fondamentalement mauvais, mais j’ai le sentiment qu’il y a quelque chose de fondamentalement mauvais à remplacer toute une catégorie de travailleurs par des machines. C’est littéralement déshumanisant. Et je ne parle pas seulement de la plaisanterie qui consiste à se débarrasser des humains, mais aussi du fait que les employés et les clients qui interagissent avec votre entreprise vont désormais se sentir aliénés, privés de l’interaction humaine à laquelle ils sont habitués. On le constate déjà. C’est le genre de chose qui excite les personnes soucieuses de leurs résultats financiers et qui inquiète celles qui se préoccupent des questions de revenus et d’égalité, et de tous les problèmes liés à cette poussée effrénée de mécanisation. Nous sommes confrontés à ce problème en tant que société depuis 150 ans, et j’ai l’impression qu’à mesure que la technologie devient plus puissante, ces inquiétudes ne font que s’accélérer.
Lauren Goode : Rien que la semaine dernière, j'ai entendu un investisseur en capital-risque et un PDG déclarer, lors d'interviews séparées, que « six emplois sur dix, 60 % des emplois actuels, n'existaient pas en 1940 ». Les choses évoluent, la technologie ouvre la voie à de nouveaux types d'emplois. Futuristes, PDG, investisseurs en capital-risque, ils adorent ça, car cela crée un vide pour ce que nous n'avions pas encore imaginé, en termes d'emplois futurs. Suis-je convaincu que le fils de Will, avec qui il code actuellement, pourrait potentiellement occuper des emplois auxquels nous n'avons même pas encore pensé ?
Michael Calore : Est-ce que tout le monde dans la Silicon Valley pense aux agents IA de la même manière ?
Will Knight : Je ne pense pas. Je pense qu'il y a beaucoup d'enthousiasme, mais aussi une multitude de définitions différentes. J'ai récemment discuté avec Sonya Huang, associée chez Sequoia, qui suit l'IA. Elle m'a dit que la plupart des start-ups d'agents, la plupart des entreprises qui proposent des agents, se contentent de renommer des outils d'IA existants en agents.
Lauren Goode : Oui. Pour revenir à ce que Will a dit plus tôt, il n'existe pas encore de définition claire de ce qu'est un agent IA ni de ce qu'il est censé être. Le spectre est très large, les entreprises peuvent donc le définir comme elles le souhaitent, ou le proposer d'une certaine manière. Je pense que nous allons également voir une sorte d'industrie artisanale émerger entre les IA agentiques. Prenons l'exemple d'un goulot d'étranglement d'authentification lorsqu'un agent effectue différentes tâches en ligne via différentes applications. Une connexion entre ces applications doit être sûre et sécurisée. Je pense que des solutions vont émerger. Je pense que nous verrons une version du dernier kilomètre, mais pour le codage. En effet, en ce moment, on parle beaucoup de code d'ambiance, et on se dit : « Regardez ce que ce bot peut faire pour moi. » Mais tout ce code n'est pas réellement livrable. Il faut pouvoir le déboguer et le livrer. Il faut que ça fonctionne. Je pense que de plus en plus de startups et d'entreprises tenteront de proposer des solutions pour combler tous ces petits écarts et goulots d'étranglement entre les agents d'IA. Alors, nos emplois seront pleinement occupés. Que du bonheur !
Michael Calore : Will, pour les gens comme nous qui sommes consommateurs de cette technologie... Nous ne faisons pas de codage vibratoire comme Will.
Lauren Goode : Pas encore.
Michael Calore : De manière générale, nous rencontrons l'IA agentique sous une forme ou une autre dans notre quotidien. Face à sa prévalence croissante, comment pouvons-nous évaluer son potentiel et ses risques avec discernement ?
Will Knight : Tout d'abord, je pense que vous devriez tous vous mettre au code d'ambiance. Je fais toutes sortes de bêtises. Quand je code d'ambiance, je le fais consciemment sur une machine qui ne me dérange pas si elle supprime beaucoup de fichiers, car c'est vraiment imprévisible et ça arrive parfois. Je ne sais pas vraiment comment faire pour quelque chose que vous allez utiliser sans retenue pendant vos achats. Avez-vous un budget que vous laissez dépenser à l'agent ? Je pense que c'est une excellente question. Le risque va évidemment reposer entièrement sur nous, j'imagine.
Michael Calore : Ouais.
Lauren Goode : Oui. Mais je pense qu'à mesure que ces agents s'améliorent dans leurs tâches, nous avons au moins quelques responsabilités. Premièrement, nous devons bouleverser nos habitudes et apprendre à utiliser de nouveaux outils, car ils vont envahir nos vies. Deuxièmement, nous devons trouver notre place en tant qu'êtres humains et conserver une part de cette autonomie tout en participant, en restant connectés, en participant à nos propres vies, au lieu de laisser la technologie prendre le dessus. Troisièmement, nous devons réfléchir sérieusement à l'éthique, à la confidentialité et à la sécurité des actions de ces agents d'IA qui envahissent la vie des gens. La promesse de tous les optimistes est que cela va combler les inégalités. Encore une fois, ce sera une bonne chose pour tout le monde. Nous savons presque avec certitude que ce ne sera pas une bonne chose pour tout le monde.
Michael Calore: Ouais. C'est pourquoi je suis l'opposé des optimistes à ce stade. Je pense qu'une grande prudence et un grand scepticisme sont des choses qui sont données ici. Nous devons nous assurer que lorsque nous adoptons ces technologies, nous le faisons d'une manière très, très réfléchie et prudente. C'est quelque chose qui semble familier. L'exemple le plus récent est probablement le téléphone, le smartphone. Quelque chose qui provoque la friction dans les relations, c'est quelque chose auquel vous pouvez faire attention et vous pouvez ignorer les humains. Vous pouvez l'utiliser pour interagir avec d'autres humains, vous pouvez l'utiliser pour ne pas interagir avec d'autres humains. Cette force qui a vraiment érodé une petite partie de notre humanité au cours des 15 ou 20 ans que cela a fait partie de nos vies. Je peux voir que cela se produit avec les agents de l'IA comme les choses que nous avons utilisées sur les gens pour faire et les choses qui nous forçaient à interagir les uns avec les autres disparaissent. J'ai la même expérience chaque fois que je roule dans un waymo au lieu de rouler dans un Uber ou de prendre un taxi. Le fait qu'il n'y ait plus d'humain dans l'équation, il n'y a personne avec qui interagir. En faisant cela encore et encore, j'érode lentement mon propre sens de ce que signifie être un être humain. Je sais que cela semble vraiment ésotérique, mais vous pouvez le tracer au fil du temps et vous constaterez probablement que vous ressentez la même chose dans votre propre vie. J'encourage les gens à prendre cette décision sur la façon dont ils veulent utiliser les agents de l'IA. S'ils n'ont pas l'impression que c'est quelque chose qui appartient à leur vie, ils devraient voter avec leurs dollars.
Will Knight: Peut-être que nous avons également besoin d'un mouvement open source renouvelé, donc nous n'utilisons pas seulement des agents qui appartiennent et entonnaient des données à ces entreprises géantes. Utilisez le code et les modèles open source, et ce genre de chose.
Michael Calore: C'est une très bonne idée. Nous devrions obtenir un signal à ce sujet. Ils devraient commencer à faire cela. Ils devraient faire leur propre modèle.
Lauren Goode: Je pense que cela semble génial.
Michael Calore: Ok, prenons une autre pause, et nous reviendrons tout de suite. Will et Lauren, merci d'avoir revigorant la conversation. Nous allons mettre les agents de l'IA sur le côté pendant une minute et nous remettre humain une fois de plus. Parlons de quelques recommandations. Will, en tant qu'invité, veuillez recommander quelque chose à nos auditeurs.
Will Knight: OK, j'en ai parlé plus tôt, mais je veux en faire ma recommandation. Je vais le tenir, ce qui est une super radio. Ce livre, qui est l'évolution de l'agence de Michael Tomasello. Je l'ai trouvé juste fascinant et vraiment révélateur sur ce qui manque avec l'IA en matière d'agence et l'importance de comprendre l'interaction sociale humaine, la culture humaine. En ce qui concerne la vue d'ensemble de l'intelligence en AGI, dont tout le monde parle, mais ils n'en parlent pas vraiment.
Michael Calore: Nice. Lauren, quelle est votre recommandation?
Lauren Goode: Ma recommandation est la nouvelle locale, et en particulier la mission locale.
Michael Calore: Yay!
Lauren Goode: Mission Local est une organisation de presse à but non lucratif locale ici à San Francisco qui couvre le quartier de Mission, mais aussi à San Francisco. Ils font un travail fantastique. Il se passe beaucoup de choses dans les villes américaines en ce moment, en particulier Los Angeles, et aussi à San Francisco. Il y a des raids sur les glaces dans le pays et les gens descendent dans la rue pour les protester. Mission Local a fait un excellent travail couvrant ce qui se passe jusqu'à présent à San Francisco. Je vous recommande de les soutenir et de soutenir vos nouvelles locales si vous le pouvez. Mike, quelle est votre recommandation?
Michael Calore: Je veux recommander un essai dans le numéro actuel de Harper's. C'est par l'écrivain norvégien Karl Ove Knausgaard qui, Lauren, je suis sûr que vous en avez assez de moi. Mais c'est un essai fantastique. Cela s'appelle «le monde réenchanté». C'est Karl ove qui compte avec la technologie. Il vous parle de la première fois qu'il a rencontré un ordinateur, qui était il y a 40 ans. Ensuite, il n'a tout simplement pas fait attention aux ordinateurs et cela commence à le déranger. Il y a une excellente citation près du sommet. "Tenir quelque peu informé de la situation politique dans le monde est un devoir, quelque chose n'a pas le droit de se détourner. Quelque chose de similaire ne devrait-il pas s'appliquer à la technologie, étant donné l'immensité de l'influence de l'informatique?" J'adore cette citation, car elle arrive vraiment au centre de ce dont nous parlons aujourd'hui. Afin de vous engager avec le monde, vous devez comprendre comment ces systèmes fonctionnent. Il se rend sur une île grecque pour rendre visite à l'écrivain James Bridle, car leur livre des manières d'être est une très bonne introduction à l'intelligence et à l'intelligence artificielle et à l'intelligence naturelle. Ils parlent beaucoup de l'intelligence artificielle et de la façon dont elle s'est développée et de la façon dont les différentes façons de calculer l'intelligence se sont présentées dans nos vies. C'est une pièce vraiment merveilleuse rapportée sur l'état actuel de la technologie de nos vies.
Lauren Goode: Super.
Michael Calore: Ouais.
Lauren Goode: Cela semble beaucoup plus court que ses livres.
Michael Calore: Ouais. Vous pouvez le lire en moins d'une heure.
Lauren Goode: Allright, ça me semble bien.
Michael Calore: Merci d'avoir écouté Uncanny Valley . Si vous aimez ce que vous avez entendu aujourd'hui, assurez-vous de suivre notre émission et de le noter sur votre application de podcast de choix. Si vous souhaitez nous contacter avec des questions, des commentaires ou des suggestions, écrivez-nous à [email protected]. Le spectacle d'aujourd'hui a été produit par Adriana Tapia. Amar Lal à Macro Sound a mélangé cet épisode. Jake Loomis était notre ingénieur en studio de New York. Meghan Herbst a vérifié cet épisode. Jordan Bell est notre producteur exécutif. Katie Drummond est la directrice éditoriale mondiale de Wired. Chris Bannon est le chef de l'audio mondial.
wired