L'intelligence d'Apple peut désormais s'infiltrer sur l'écran de votre iPhone

Ce ne serait pas une keynote de développeurs en 2025 sans un peu d'IA, n'est-ce pas ? Aussi décevant qu'Apple Intelligence ait été depuis son lancement en octobre dernier, Apple semble déterminé à améliorer cette expérience avec des améliorations cruciales comme… de nouveaux Genmojis ? Bon, la WWDC 2025 n'a peut-être pas été une année révolutionnaire pour Apple Intelligence , mais il y a tout de même quelques améliorations à noter, notamment une nouvelle fonctionnalité qui permet de surveiller vos activités sur votre téléphone et d'agir en fonction du scénario.
L'intelligence visuelle, comme Apple l'appelle, est une fonctionnalité qui étend les capacités multimodales au-delà de l'application Appareil photo et les transpose sur l'écran de votre iPhone. « Les utilisateurs peuvent poser des questions à ChatGPT sur ce qu'ils regardent pour en savoir plus, et effectuer des recherches sur Google, Etsy ou d'autres applications compatibles pour trouver des images et des produits similaires », explique Apple . « Si un objet les intéresse particulièrement, comme une lampe, ils peuvent le sélectionner pour rechercher cet article spécifique ou des objets similaires en ligne. »
Cela ne semble pas nouveau, mais cela rapproche Apple Intelligence de concurrents comme Google, qui propose une fonctionnalité Gemini aux fonctions quasiment identiques. Cela rapproche également Apple Intelligence du Saint Graal de l'« IA agentique », terme utilisé dans le monde de la technologie pour décrire une IA capable de faire des choses à votre place. Aussi banales que soient devenues en peu de temps des fonctionnalités multimodales comme l'Intelligence Visuelle, elles ont, à mon avis, le pouvoir d'améliorer réellement l'expérience utilisateur.

Je pense parler au nom de la plupart des gens quand je dis qu'utiliser son iPhone n'est plus aussi simple qu'avant, et ce pour plusieurs raisons. L'une d'elles est que nous attendons de nos téléphones qu'ils en fassent beaucoup plus qu'avant, ce qui signifie que les appareils doivent avoir davantage de fonctionnalités pour tout faire. Le problème, c'est qu'il est difficile de suivre ces fonctionnalités et de leur trouver une place dans une interface utilisateur ; cela alourdit les logiciels. L'IA agentique a la capacité de réduire cette surcharge et de vous amener plus rapidement à l'action souhaitée. Si cela me permet de passer moins de temps à saisir mes informations de carte de paiement ou à naviguer entre les applications sur mon téléphone, alors je suis tout à fait pour.
Tout cela reste théorique pour l'instant, puisque Visual Intelligence vient tout juste d'être lancé, et nous ne pouvons pas affirmer avec certitude qu'il fonctionne comme promis, mais je ne suis pas du tout emballé par l'idée, même si je suis un peu déçu. Visual Intelligence devrait également exécuter l'IA sur l'appareil, ce qui est une excellente chose, car envoyer des données depuis l'écran de mon téléphone n'importe où ne serait pas vraiment une priorité pour moi.
L'intelligence visuelle ne s'est pas limitée à Apple ; Apple a également dévoilé de nouvelles fonctionnalités d'IA, comme la traduction en direct dans Messages et FaceTime, permettant de traduire pendant que vous envoyez des SMS ou appelez quelqu'un. Des mises à jour de Genmoji et d'Image Playground ont également été apportées, offrant davantage de personnalisation et de nouveaux styles artistiques pour les images et emojis générés. De plus, Apple ouvrira son modèle de base sur appareil à Apple Intelligence et invitera les développeurs d'applications tiers à concevoir leurs propres fonctionnalités d'IA.
« Les développeurs d'applications pourront s'appuyer sur Apple Intelligence pour offrir aux utilisateurs de nouvelles expériences intelligentes, accessibles hors ligne et respectueuses de leur vie privée, grâce à l'inférence IA gratuite », a déclaré Apple dans un communiqué. « Par exemple, une application éducative peut utiliser le modèle embarqué pour générer un quiz personnalisé à partir des notes d'un utilisateur, sans aucun coût d'API cloud, ou une application de plein air peut ajouter des fonctionnalités de recherche en langage naturel, même hors ligne. »
Encore une fois, ce n'est pas vraiment la nouvelle la plus éclatante pour Apple Intelligence, mais cela pourrait être un excellent moyen d'accélérer le développement de nouvelles fonctionnalités d'IA, surtout face au retard d'Apple dans le domaine de l'IA générative et des grands modèles de langage. À ce propos, il manquait notamment la mise à niveau de Siri, optimisée par l'IA, même si Apple a abordé le sujet tabou de l'IA, en précisant que nous en entendrions davantage « plus tard cette année ». Ce n'est certes pas surprenant, mais cela témoigne clairement des difficultés d'Apple en matière d'IA.
La WWDC de cette année n'a guère apaisé vos inquiétudes quant aux progrès d'Apple en matière d'IA, mais elle a permis de faire avancer les choses un peu, et cela pourrait suffire à la plupart. Malgré l'importance accordée par l'industrie aux fonctionnalités d'IA, les consommateurs ont nettement moins d'intérêt pour ces fonctionnalités. Je doute donc que la mise à jour de cette année empêche quiconque de se précipiter pour acheter le dernier iPhone .
Tous les membres du programme Apple Developer peuvent utiliser les nouvelles fonctionnalités d'Apple Intelligence dès aujourd'hui, tandis que la première version bêta publique sera disponible le mois prochain. Si les versions bêta ne vous intéressent pas ou si vous n'êtes pas développeur, vous devrez attendre l'automne pour tester pleinement ces nouvelles fonctionnalités.
gizmodo