Hoe Apple Intelligence verandert: meer ruimte voor ChatGPT, Claude is ook beschikbaar voor ontwikkelaars

Een van de eerste aankondigingen van de jaarlijkse WWDC-ontwikkelaarsconferentie is het Foundation Models Framework , een nieuwe softwarebibliotheek waarmee externe ontwikkelaars kunnen profiteren van de grote taalmodellen die ten grondslag liggen aan Apple Intelligent . De mogelijkheden van het framework zijn breed en veelzijdig: tekstextractie, samenvatting, begeleide generatie en aanroepen van verschillende tools. Deze functies stellen ontwikkelaars in staat om intelligente ervaringen rechtstreeks in hun bestaande apps en games te implementeren zonder afhankelijk te zijn van externe cloudservices. Het framework bevat ook speciale adapters voor veelgebruikte toepassingen zoals content tagging, die de effectiviteit van het model op specifieke gebieden verbeteren. Het ondersteunt ook gestructureerde output via genereerbare typen, waardoor instanties van door de ontwikkelaar gespecificeerde typen kunnen worden gemaakt als reactie op prompts. Met native ondersteuning voor Swift kunnen ontwikkelaars het model in slechts drie regels code gebruiken, waardoor AI-integratie zelfs toegankelijk is voor niet-technische gebruikers.
Het modelHet on-device model dat het Foundation Models Framework gebruikt, is een LLM met 3 miljard parameters, die elk tijdens de training worden gekwantificeerd tot 2 bits – een ingenieuze afweging tussen prestaties en energie-efficiëntie, waardoor het model op mobiele apparaten kan worden uitgevoerd met behoud van geavanceerde mogelijkheden. De 2-bits kwantificering vermindert de geheugenvereisten en het stroomverbruik, waardoor het mogelijk is om zo'n groot model uit te voeren op iPhones, iPads en andere Apple-apparaten.
Gebruikers van iOS Writing Tools melden bevredigende prestaties zonder duidelijke degradatie door kwantificering. Dit succes toont aan dat Apple geavanceerde optimalisatietechnieken heeft ontwikkeld die de kwaliteit van de uitvoer behouden, zelfs bij zo'n hoge compressie. Het model is aanzienlijk groter dan elk ander model dat rechtstreeks in het besturingssysteem is geïntegreerd, wat Apple's toewijding aan het direct leveren van AI-mogelijkheden aan de apparaten van gebruikers onderstreept. Hoewel het hetzelfde aantal tokens gebruikt, is het niet hetzelfde model als vorig jaar, een teken dat de werkzaamheden aan Apple Intelligence in Cupertino snel vorderen. Voor de training – zoals vermeld op een speciale pagina op de Apple-website – gebruikten we "gegevens die we van uitgevers in licentie hebben gekregen, samengesteld uit openbaar beschikbare of open source datasets, en openbaar toegankelijke informatie verzameld via onze webcrawler, Applebot. We gebruiken geen persoonlijke gegevens van gebruikers of hun interacties om onze kernmodellen te trainen. We nemen ook maatregelen om filters toe te passen om bepaalde categorieën persoonlijk identificeerbare informatie te verwijderen en aanstootgevende taal of onveilige content uit te sluiten. En nogmaals, om juridische gevechten zoals die tussen de New York Times en OpenAI te voorkomen: "We blijven ook de beste praktijken voor ethisch webcrawlen volgen, inclusief het naleven van de algemeen aanvaarde robots.txt -protocollen, waarmee webuitgevers kunnen uitsluiten dat hun content wordt gebruikt om Apples belangrijkste generatieve modellen te trainen."
Nieuwe functies voor ontwikkelaarsHet Foundation Models Framework biedt nieuwe functies die de mogelijkheden van Apple Intelligence uitbreiden. Bijvoorbeeld live vertaling van tekst en spraak in realtime, beschikbaar in watchOS 26, iOS 26 en macOS Tahoe 26. Het zou ook beschikbaar kunnen zijn voor apps van derden. Zo kan Berichten automatisch teksten vertalen terwijl je schrijft, waardoor het bericht in de voorkeurstaal van de ontvanger wordt verzonden. En wanneer de ontvanger reageert, worden de berichten direct vertaald. Alle gegevens worden direct op het apparaat verwerkt, zonder de gesprekken met Apple te delen. De functie is beschikbaar voor Berichten, FaceTime en zelfs voor gewone sms-berichten. Later zou het ook beschikbaar moeten zijn voor apps van derden die ervoor kiezen om het te gebruiken. Het werkt ook tijdens telefoongesprekken of FaceTime: terwijl je spreekt, worden de woorden in realtime vertaald en hardop uitgesproken voor de ontvanger.
Hoewel er nog steeds geen slimmere Siri is, zoals Apple's softwarechef Craig Federighi aan het begin van de eerste keynote al voorspelde ("updates volgen de volgende keer"), is Apple Intelligence steeds meer aanwezig in Apple's verschillende besturingssystemen. Met Shortcuts kun je nu krachtigere workflows creëren die gebruikmaken van kunstmatige intelligentie om complexe taken te automatiseren. Pure Visual Intelligence heeft updates ontvangen waarmee je de content op het iPhone-scherm eenvoudig kunt verkennen, wat nieuwe mogelijkheden biedt voor applicaties die visuele content analyseren en ermee interacteren. Dit is een bijzonder veelbelovend gebied voor ontwikkelaars, omdat het je in staat stelt applicaties te creëren die visuele content in realtime kunnen begrijpen en erop kunnen reageren.

Apple kondigde vorig jaar een strategische samenwerking met OpenAI aan om ChatGPT-mogelijkheden te integreren in enkele Apple Intelligence-functies. Met WWDC 2025 wordt de integratie uitgebreid naar Image Playground, de app waarmee je afbeeldingen kunt genereren. Deze kunnen nu, naast Apple's interne modellen, ook rekenen op de rekenkracht van ChatGPT. Tik gewoon op "Elke stijl" en beschrijf wat je wilt: de app stuurt de beschrijving of foto naar ChatGPT om een nieuwe afbeelding te maken. De implementatie behoudt de controle van de gebruiker en zorgt ervoor dat "niets met ChatGPT wordt gedeeld zonder expliciete toestemming", zoals Apple uitlegt. En ondanks de grotere verscheidenheid aan beschikbare stijlen blijft de mogelijkheid om fotorealistische afbeeldingen te genereren die mogelijk bruikbaar zijn voor deepfakes uitgesloten, niet vanwege technische onmogelijkheid, maar door een specifieke keuze van Apple, dat vorig jaar dit en andere ethische principes van zijn benadering van kunstmatige intelligentie al had toegelicht in een blogpost .
Er is ook ClaudeAan de andere kant biedt Apple ontwikkelaars een bijgewerkte versie van Xcode 26, de software waarmee apps voor de verschillende Apple-platformen worden gemaakt. Het biedt nu geïntegreerde ondersteuning voor ChatGPT, waarmee ontwikkelaars het model direct kunnen gebruiken om code te schrijven, tests te genereren, documentatie te produceren, het ontwerp uit te werken, fouten te herstellen en nog veel meer, allemaal binnen de ontwikkelomgeving. Het is niet nodig om een ChatGPT-account aan te maken om te beginnen, maar degenen die al een abonnement hebben, kunnen het koppelen om toegang te krijgen tot meer verzoeken.
Ontwikkelaars – en dit is ook een zeer strategisch belangrijke nieuwigheid – kunnen softwarebibliotheken van andere AI-leveranciers (zoals Anthropic/Claude) gebruiken of lokale modellen draaien op Macs met Apple-chips, waarbij ze het model kiezen dat het beste bij hun behoeften past. Het bedrijf zou een partnerschap hebben gesloten met Anthropic om het Claude Sonnet-model te integreren in een bijgewerkte versie van Xcode, die momenteel intern wordt getest.
De beslissing om Claude te gebruiken is ook het gevolg van de problemen met Swift Assist, Apple's intern ontwikkelde AI-assistent voor programmeren. De assistent werd aangekondigd op WWDC 2024, maar is nog niet volledig vrijgegeven voor het publiek vanwege interne klachten over hallucinaties en slechte prestaties. Swift Assist werkt al met tools van derden zoals GitHub Copilot en ChatGPT, die beide in Xcode zijn geïntegreerd om ontwikkelaars extra AI-ondersteuning te bieden.
Een verandering van strategieDe aankondiging van het Foundation Models Framework en de strategische overeenkomsten met OpenAI en Anthropic markeren een significante verschuiving in Apple's AI-strategie, die historisch gezien een strikte controle over zijn ecosystemen heeft behouden. De nieuwe aanpak democratiseert niet alleen de toegang tot Apple's AI-mogelijkheden, maar creëert ook een bedrijfsmodel waarbij Cupertino de AI-infrastructuur levert terwijl ontwikkelaars applicaties bouwen. Het direct beschikbaar stellen van krachtige AI-modellen op apparaten, zonder kosten voor ontwikkelaars, is een duidelijk concurrentievoordeel, omdat het de doorlopende operationele kosten die gepaard gaan met het gebruik van cloud-AI-diensten elimineert en het voor ontwikkelaars betaalbaarder maakt om geavanceerde AI-mogelijkheden te experimenteren en te implementeren. Aan de andere kant beperkt het natuurlijk de reikwijdte van ontwikkelaars, die geen toegang hebben tot de kracht van Apple's cloudservers. Het is de bedoeling van het bedrijf dat het openstellen van het Foundation Model de acceptatie van Apple Intelligence en de creatie van een rijk ecosysteem van applicaties gebaseerd op Cupertino's AI-platform zou kunnen versnellen, om nog maar te zwijgen van het waardevolle werk van onderzoek en bugidentificatie, waarvoor duizenden deskundige ontwikkelaars wereldwijd zouden worden aangetrokken.
La Repubblica