Comment Apple Intelligence évolue : plus d'espace pour ChatGPT, Claude est également disponible pour les développeurs

Parmi les premières annonces faites lors de la conférence annuelle des développeurs de la WWDC figure Foundation Models Framework , une nouvelle bibliothèque logicielle permettant aux développeurs tiers d' exploiter les vastes modèles de langage qui sous-tendent Apple Intelligent . Les fonctionnalités offertes par ce framework sont vastes et polyvalentes : extraction de texte, résumé, génération guidée et appels à divers outils. Ces fonctionnalités permettent aux développeurs d'implémenter des expériences intelligentes directement dans leurs applications et jeux existants, sans avoir recours à des services cloud externes. Le framework inclut également des adaptateurs dédiés aux applications courantes, comme le balisage de contenu, qui améliorent l'efficacité du modèle dans des domaines spécifiques. Il prend également en charge les sorties structurées via des types générables, permettant la création d'instances de types spécifiés par le développeur en réponse à des invites. Grâce à la prise en charge native de Swift, les développeurs peuvent exploiter le modèle en seulement trois lignes de code, rendant l'intégration de l'IA accessible même aux utilisateurs non techniques.
Le modèleLe modèle embarqué utilisé par le Foundation Models Framework est un LLM comportant 3 milliards de paramètres, chacun quantifié sur 2 bits lors de l'apprentissage. Ce compromis astucieux entre performances et efficacité énergétique permet au modèle de fonctionner sur des appareils mobiles tout en conservant des fonctionnalités avancées. La quantification sur 2 bits réduit les besoins en mémoire et la consommation d'énergie, ce qui permet d'exécuter un modèle aussi volumineux sur des iPhone, iPad et autres appareils Apple.
Les utilisateurs d'iOS Writing Tools signalent des performances satisfaisantes, sans dégradation notable due à la quantification. Ce succès démontre qu'Apple a développé des techniques d'optimisation avancées qui préservent la qualité de sortie même avec une compression aussi élevée. Le modèle est nettement plus volumineux que tout autre modèle intégré directement au système d'exploitation, ce qui témoigne de l'engagement d'Apple à fournir des capacités d'IA directement sur les appareils des utilisateurs. De plus, bien qu'il utilise le même nombre de jetons, il ne s'agit pas du même modèle que l'année dernière, signe que les travaux sur Apple Intelligence progressent rapidement à Cupertino. Pour la formation, comme indiqué sur une page dédiée du site web d'Apple , nous avons utilisé des données que nous avons obtenues sous licence auprès d'éditeurs, issues d'ensembles de données accessibles au public ou en open source, ainsi que des informations accessibles au public collectées via notre robot d'indexation, Applebot. Nous n'utilisons pas les données personnelles des utilisateurs ni leurs interactions pour former nos modèles centraux. Nous appliquons également des filtres afin de supprimer certaines catégories d'informations personnelles identifiables et d'exclure tout langage offensant ou contenu dangereux. Et, encore une fois, pour éviter des litiges juridiques comme celui qui oppose actuellement le New York Times à OpenAI : « Nous continuons également à suivre les meilleures pratiques en matière de crawling web éthique, notamment en adhérant aux protocoles robots.txt largement adoptés, qui permettent aux éditeurs web d'exclure leur contenu de l'entraînement des modèles génératifs centraux d'Apple. »
Nouvelles fonctionnalités pour les développeursLe Framework Foundation Models s'accompagne de nouvelles fonctionnalités qui étendent les capacités d'Apple Intelligence. Par exemple, la traduction en temps réel de textes et de voix est disponible sur watchOS 26, iOS 26 et macOS Tahoe 26. Elle pourrait également être intégrée aux applications tierces. Par exemple, dans Messages, la traduction automatique des textes au fur et à mesure de votre écriture est envoyée dans la langue de votre destinataire. Lorsque votre interlocuteur répond, ses messages sont instantanément traduits. Toutes les données sont traitées directement sur l'appareil, sans partage des conversations avec Apple. Cette fonctionnalité est disponible pour Messages, FaceTime et même les SMS classiques. Elle devrait être intégrée ultérieurement aux applications tierces qui l'utiliseront. Elle fonctionne également pendant les appels téléphoniques ou FaceTime : pendant que vous parlez, les mots sont traduits en temps réel et prononcés à voix haute pour votre interlocuteur.
Bien qu'il n'existe toujours pas de Siri plus intelligent, comme l'annonçait Craig Federighi, directeur des logiciels d'Apple, lors de sa keynote inaugurale (« des mises à jour seront disponibles la prochaine fois »), l'intelligence artificielle est de plus en plus présente dans les différents systèmes d'exploitation d'Apple. Avec Shortcuts, vous pouvez désormais créer des workflows plus puissants utilisant l'intelligence artificielle pour automatiser des tâches complexes. L'intelligence visuelle pure a reçu des mises à jour permettant d'explorer facilement le contenu de l'écran de l'iPhone, ouvrant ainsi de nouvelles possibilités pour les applications qui analysent et interagissent avec le contenu visuel. C'est un domaine particulièrement prometteur pour les développeurs, car il permet de créer des applications capables de comprendre et de réagir au contenu visuel en temps réel.

Apple a annoncé l'année dernière un partenariat stratégique avec OpenAI afin d'intégrer les fonctionnalités de ChatGPT à certaines fonctionnalités d'Apple Intelligence. Avec la WWDC 2025, cette intégration s'étend à Image Playground, l'application de génération d'images qui, en plus des modèles internes d'Apple, peut désormais compter sur la puissance de traitement de ChatGPT. Il suffit d'appuyer sur « N'importe quel style » et de décrire ce que vous souhaitez : l'application enverra la description ou la photo à ChatGPT pour créer une nouvelle image. Cette implémentation préserve le contrôle de l'utilisateur, garantissant que « rien n'est partagé avec ChatGPT sans autorisation explicite », comme l'explique Apple. Et, malgré la plus grande variété de styles disponibles, la possibilité de générer des images photoréalistes potentiellement utilisables pour des deepfakes reste exclue, non pas par impossibilité technique, mais par un choix spécifique d'Apple, qui avait déjà illustré l'année dernière ce principe et d'autres principes éthiques de son approche de l'intelligence artificielle dans un article sur son blog .
Il y a aussi ClaudeD'autre part, pour les développeurs, Apple propose une version mise à jour de Xcode 26, le logiciel utilisé pour créer des applications pour les différentes plateformes Apple. Elle offre désormais un support intégré pour ChatGPT, permettant aux développeurs d'utiliser directement le modèle pour écrire du code, générer des tests, produire de la documentation, élaborer la conception, corriger les erreurs et bien plus encore, le tout dans l'environnement de développement. Il n'est pas nécessaire de créer un compte ChatGPT pour commencer, mais les personnes déjà abonnées peuvent s'y connecter pour accéder à davantage de requêtes.
Les développeurs – et c'est là aussi une nouveauté stratégique – peuvent utiliser des bibliothèques logicielles d'autres fournisseurs d'IA (comme Anthropic/Claude) ou exécuter des modèles locaux sur des Mac équipés de puces Apple, choisissant ainsi le modèle le mieux adapté à leurs besoins. L'entreprise aurait signé un partenariat avec Anthropic pour intégrer le modèle Claude Sonnet dans une version mise à jour de Xcode, actuellement en test interne.
La décision d'utiliser Claude fait également suite aux difficultés rencontrées avec Swift Assist, l'assistant d'intelligence artificielle développé en interne par Apple pour le codage. Annoncé lors de la WWDC 2024, il n'a pas encore été entièrement déployé en raison de plaintes internes concernant des hallucinations et des performances médiocres. Swift Assist fonctionne déjà avec des outils tiers comme GitHub Copilot et ChatGPT, tous deux intégrés à Xcode pour offrir un support d'intelligence artificielle supplémentaire aux développeurs.
Un changement de stratégieL'annonce du Foundation Models Framework et les accords stratégiques avec OpenAI et Anthropic marquent un tournant majeur dans la stratégie d'Apple en matière d'IA, qui a toujours exercé un contrôle strict sur ses écosystèmes. Cette nouvelle approche démocratise non seulement l'accès aux capacités d'IA d'Apple, mais établit également un modèle économique où Cupertino fournit l'infrastructure d'IA tandis que les développeurs développent leurs applications. Mettre à disposition des modèles d'IA puissants directement sur les appareils, sans frais d'inférence pour les développeurs, constitue un avantage concurrentiel évident : cela élimine les coûts opérationnels récurrents liés à l'utilisation de services d'IA cloud et permet aux développeurs d'expérimenter et de mettre en œuvre des fonctionnalités d'IA avancées à moindre coût. En revanche, cela limite évidemment le champ d'action des développeurs, qui ne peuvent accéder à la puissance des serveurs cloud d'Apple. L'ouverture du Foundation Model pourrait accélérer l'adoption d'Apple Intelligence et la création d'un riche écosystème d'applications basé sur la plateforme d'IA de Cupertino, sans oublier le précieux travail de recherche et d'identification de bugs, qui mobiliserait des milliers de développeurs experts du monde entier.
La Repubblica