Wie sich Apple Intelligence verändert: Mehr Platz für ChatGPT, Claude steht auch Entwicklern zur Verfügung

Zu den ersten Ankündigungen auf der Bühne der jährlichen Entwicklerkonferenz WWDC gehört das Foundation Models Framework , eine neue Softwarebibliothek, die es Drittanbietern ermöglicht , die großen Sprachmodelle zu nutzen, die Apple Intelligent zugrunde liegen . Die vom Framework gebotenen Möglichkeiten sind breit gefächert und vielseitig: Textextraktion, Zusammenfassung, geführte Generierung und Aufrufe verschiedener Tools. Diese Features ermöglichen Entwicklern, intelligente Erlebnisse direkt in ihre bestehenden Apps und Spiele zu implementieren, ohne auf externe Cloud-Dienste angewiesen zu sein. Das Framework umfasst auch dedizierte Adapter für gängige Anwendungen wie Content-Tagging, die die Effektivität des Modells in bestimmten Bereichen verbessern. Es unterstützt außerdem strukturierte Ausgabe durch generierbare Typen, sodass Instanzen entwicklerspezifizierter Typen als Reaktion auf Eingabeaufforderungen erstellt werden können. Dank nativer Unterstützung für Swift können Entwickler das Modell in nur drei Codezeilen nutzen, wodurch die KI-Integration auch für technisch nicht versierte Benutzer zugänglich wird.
Das ModellDas vom Foundation Models Framework verwendete On-Device-Modell ist ein LLM mit 3 Milliarden Parametern, die während des Trainings jeweils auf 2 Bit quantisiert werden – ein genialer Kompromiss zwischen Leistung und Energieeffizienz, der die Ausführung des Modells auf Mobilgeräten unter Beibehaltung seiner erweiterten Funktionen ermöglicht. Die 2-Bit-Quantisierung reduziert Speicherbedarf und Stromverbrauch und ermöglicht so die Ausführung eines so großen Modells auf iPhones, iPads und anderen Apple-Geräten.
Nutzer der iOS Writing Tools berichten von einer zufriedenstellenden Leistung ohne erkennbare Einbußen durch die Quantisierung. Dieser Erfolg zeigt, dass Apple fortschrittliche Optimierungstechniken entwickelt hat, die die Ausgabequalität auch bei solch hoher Komprimierung gewährleisten. Das Modell ist deutlich größer als jedes andere direkt in das Betriebssystem integrierte Modell und unterstreicht Apples Engagement, KI-Funktionen direkt auf die Geräte der Nutzer zu bringen. Beachten Sie außerdem, dass es zwar die gleiche Anzahl an Token verwendet, es sich aber nicht um dasselbe Modell wie im Vorjahr handelt. Dies zeigt, dass die Arbeit an Apple Intelligence in Cupertino zügig voranschreitet. Für das Training verwendeten wir – wie auf einer speziellen Seite der Apple-Website angegeben – „Daten, die wir von Verlagen lizenziert, aus öffentlich verfügbaren oder Open-Source-Datensätzen kuratiert und über unseren Webcrawler Applebot öffentlich zugängliche Informationen gesammelt haben. Wir verwenden weder die privaten personenbezogenen Daten der Nutzer noch deren Interaktionen, um unsere Kernmodelle zu trainieren. Wir ergreifen außerdem Maßnahmen, um Filter anzuwenden, um bestimmte Kategorien personenbezogener Daten zu entfernen und anstößige Sprache oder unsichere Inhalte auszuschließen. Und um Rechtsstreitigkeiten wie den laufenden zwischen der New York Times und OpenAI zu vermeiden: „Wir befolgen auch weiterhin bewährte Verfahren für ethisches Web-Crawling, einschließlich der Einhaltung weit verbreiteter robots.txt -Protokolle, die es Web-Publishern ermöglichen, ihre Inhalte von der Verwendung zum Training der zentralen generativen Modelle von Apple auszuschließen.“
Neue Funktionen für EntwicklerMit dem Foundation Models Framework kommen neue Funktionen, die die Fähigkeiten von Apple Intelligence erweitern. Zum Beispiel die Live-Übersetzung von Text und Sprache in Echtzeit, verfügbar in watchOS 26, iOS 26 und macOS Tahoe 26. Und es könnte auch in Apps von Drittanbietern verfügbar sein. In Nachrichten kann es beispielsweise Texte automatisch übersetzen, während Sie schreiben, und die Nachricht in der bevorzugten Sprache des Empfängers senden. Und wenn die andere Person antwortet, werden ihre Nachrichten sofort übersetzt. Alle Daten werden direkt auf dem Gerät verarbeitet, ohne die Konversationen mit Apple zu teilen. Die Funktion ist für Nachrichten, FaceTime und sogar normale SMS verfügbar. Und sie soll später in Apps von Drittanbietern verfügbar sein, die sich für deren Verwendung entscheiden. Sie funktioniert auch bei Telefonaten oder FaceTime: Während Sie sprechen, werden die Wörter in Echtzeit übersetzt und für die andere Person laut ausgesprochen.
Obwohl es noch keine intelligentere Siri gibt, wie Apples Softwarechef Craig Federighi zu Beginn der Eröffnungs-Keynote ankündigte („wir werden beim nächsten Mal Updates haben“), ist Apple Intelligence in den verschiedenen Betriebssystemen von Apple zunehmend präsent. Mit Shortcuts lassen sich nun leistungsfähigere Workflows erstellen, die künstliche Intelligenz zur Automatisierung komplexer Aufgaben nutzen. Pure Visual Intelligence wurde aktualisiert, um Inhalte auf dem iPhone-Bildschirm einfacher zu erkunden und so neue Möglichkeiten für Anwendungen zu eröffnen, die visuelle Inhalte analysieren und mit ihnen interagieren. Dies ist ein besonders vielversprechender Bereich für Entwickler, da damit Anwendungen erstellt werden können, die visuelle Inhalte in Echtzeit verstehen und darauf reagieren können.

Apple kündigte letztes Jahr eine strategische Partnerschaft mit OpenAI an, um ChatGPT-Funktionen in einige Apple Intelligence-Funktionen zu integrieren. Mit der WWDC 2025 wird die Integration auf Image Playground ausgeweitet, die App zur Bildgenerierung, die nun neben Apples internen Modellen auch auf die Rechenleistung von ChatGPT zurückgreifen kann. Tippen Sie einfach auf „Beliebiger Stil“ und beschreiben Sie, was Sie möchten: Die App sendet die Beschreibung oder das Foto an ChatGPT, um ein neues Bild zu erstellen. Die Implementierung behält die Benutzerkontrolle und stellt sicher, dass „nichts ohne ausdrückliche Erlaubnis mit ChatGPT geteilt wird“, wie Apple erklärt. Und trotz der größeren Vielfalt verfügbarer Stile bleibt die Möglichkeit, fotorealistische Bilder zu generieren, die potenziell für Deepfakes verwendet werden könnten, ausgeschlossen – nicht aufgrund technischer Unmöglichkeit, sondern aufgrund einer bewussten Entscheidung von Apple, das diese und andere ethische Prinzipien seines Ansatzes zur künstlichen Intelligenz bereits letztes Jahr in einem Blogbeitrag erläutert hatte.
Es gibt auch ClaudeApple stellt Entwicklern zudem eine aktualisierte Version von Xcode 26 zur Verfügung, der Software zum Erstellen von Apps für die verschiedenen Apple-Plattformen. Diese bietet nun integrierte Unterstützung für ChatGPT. Entwickler können das Modell direkt nutzen, um Code zu schreiben, Tests zu generieren, Dokumentationen zu erstellen, das Design auszuarbeiten, Fehler zu beheben und vieles mehr – alles in der Entwicklungsumgebung. Es ist nicht erforderlich, ein ChatGPT-Konto zu erstellen, um loszulegen. Wer jedoch bereits ein Abonnement besitzt, kann es verknüpfen, um auf weitere Anfragen zuzugreifen.
Entwickler – und das ist ebenfalls eine strategisch wichtige Neuerung – können Softwarebibliotheken anderer KI-Anbieter (wie Anthropic/Claude) nutzen oder lokale Modelle auf Macs mit Apple-Chips ausführen und so das Modell wählen, das ihren Anforderungen am besten entspricht. Das Unternehmen hat Berichten zufolge eine Partnerschaft mit Anthropic geschlossen, um das Claude Sonnet-Modell in eine aktualisierte Version von Xcode zu integrieren, die sich derzeit in der internen Testphase befindet.
Die Entscheidung für Claude ist auch eine Folge der Schwierigkeiten mit Swift Assist, Apples intern entwickeltem KI-Assistenten für die Programmierung. Der auf der WWDC 2024 angekündigte Assistent wurde aufgrund interner Beschwerden über Halluzinationen und schlechte Leistung noch nicht vollständig veröffentlicht. Swift Assist funktioniert bereits mit Drittanbieter-Tools wie GitHub Copilot und ChatGPT, die beide in Xcode integriert sind, um Entwicklern zusätzliche KI-Unterstützung zu bieten.
Ein StrategiewechselDie Ankündigung des Foundation Models Framework und die strategischen Vereinbarungen mit OpenAI und Anthropic markieren einen bedeutenden Wandel in Apples KI-Strategie, die traditionell eine strenge Kontrolle über ihre Ökosysteme hatte. Der neue Ansatz demokratisiert nicht nur den Zugang zu Apples KI-Funktionen, sondern etabliert auch ein Geschäftsmodell, bei dem Cupertino die KI-Infrastruktur bereitstellt, während Entwickler Anwendungen entwickeln. Die Bereitstellung leistungsstarker KI-Modelle direkt auf Geräten ohne Inferenzkosten für Entwickler ist ein klarer Wettbewerbsvorteil, da die laufenden Betriebskosten für Cloud-KI-Dienste entfallen und Entwickler das Experimentieren und Implementieren fortschrittlicher KI-Funktionen kostengünstiger gestalten können. Andererseits schränkt dies natürlich den Handlungsspielraum der Entwickler ein, die nicht auf die Leistungsfähigkeit der Apple Cloud-Server zugreifen können. Nach den Absichten des Unternehmens könnte die Öffnung des Foundation Models die Einführung von Apple Intelligence und den Aufbau eines umfassenden Anwendungs-Ökosystems auf Basis der KI-Plattform von Cupertino beschleunigen, ganz zu schweigen von der wertvollen Forschungs- und Fehleridentifizierungsarbeit, die Tausende von erfahrenen Entwicklern weltweit einbeziehen würde.
La Repubblica