Apple Intelligence kann jetzt auf Ihren iPhone-Bildschirm gelangen

Sprache auswählen

German

Down Icon

Land auswählen

England

Down Icon

Apple Intelligence kann jetzt auf Ihren iPhone-Bildschirm gelangen

Apple Intelligence kann jetzt auf Ihren iPhone-Bildschirm gelangen

Es wäre keine Entwickler-Keynote im Jahr 2025 ohne ein wenig KI, oder? So enttäuschend Apple Intelligence seit seiner Einführung im Oktober letzten Jahres auch war, Apple scheint entschlossen zu sein, dieses Erlebnis mit entscheidenden Upgrades wie … neuen Genmojis zu verbessern. Okay, vielleicht war die WWDC 2025 kein revolutionäres Jahr für Apple Intelligence , aber es gibt dennoch einige erwähnenswerte Upgrades, darunter eine neue Funktion, die beobachten kann, was Sie auf Ihrem Telefon tun, und dann je nach Szenario spezifische Aktionen ausführt.

Visual Intelligence, wie Apple es nennt, ist eine Funktion, die multimodale Möglichkeiten über die Kamera-App hinaus auf den iPhone-Bildschirm erweitert. „Nutzer können ChatGPT Fragen zu dem stellen, was sie auf ihrem Bildschirm sehen, um mehr zu erfahren, und Google, Etsy oder andere unterstützte Apps durchsuchen, um ähnliche Bilder und Produkte zu finden“, so Apple . „Wenn sich ein Nutzer für ein Objekt besonders interessiert, zum Beispiel eine Lampe, kann er es markieren, um online nach diesem oder ähnlichen Objekten zu suchen.“

Das klingt zwar nicht neuartig, bringt Apple Intelligence aber näher an Konkurrenten wie Google heran, das mit seiner Gemini-Funktion praktisch dasselbe leistet. Es bringt Apple Intelligence auch näher an den Heiligen Gral der „ agentischen KI “, wie die Tech-Welt KI beschreibt, die Dinge für den Nutzer erledigen kann. So langweilig multimodale Funktionen wie Visual Intelligence in kürzester Zeit auch geworden sind, meiner Meinung nach haben sie immer noch das Potenzial, das Telefonerlebnis tatsächlich zu verbessern.

Apple Intelligence-Funktionen in iOS 16.
© Apple

Ich denke, ich spreche für die meisten, wenn ich sage, dass die Bedienung des iPhones nicht mehr ganz so einfach ist wie früher. Dafür gibt es mehrere Gründe. Ein Grund ist, dass wir von unseren Handys heute viel mehr erwarten, was bedeutet, dass die Geräte mehr Funktionen benötigen, um all diese Dinge zu leisten. Das Problem ist, dass es nicht einfach ist, den Überblick über diese Funktionen zu behalten und sie in der Benutzeroberfläche unterzubringen – die Software wirkt dadurch aufgeblähter. Agentenbasierte KI kann diesen Ballast reduzieren und Sie schneller zum gewünschten Ziel führen. Wenn das bedeutet, dass ich weniger Zeit mit der Eingabe von Zahlungskartendaten oder dem Navigieren zwischen Apps auf meinem Handy verbringe, bin ich voll und ganz dafür.

Das ist alles noch Theorie, da Visual Intelligence gerade erst veröffentlicht wurde, und wir können nicht mit Sicherheit sagen, ob es wie versprochen funktioniert. Ich bin von der Idee aber nicht begeistert, auch wenn ich etwas enttäuscht bin. Visual Intelligence sollte auch geräteinterne KI ausführen, was großartig ist, da das Senden von Daten von meinem Handybildschirm wirklich nicht ganz oben auf meiner To-do-Liste steht.

Es ging nicht nur um visuelle Intelligenz; Apple stellte auch neue KI-Funktionen wie Live-Übersetzung in Nachrichten und FaceTime vor, mit denen man während des Schreibens oder Telefonierens übersetzen kann. Außerdem gab es Updates für Genmoji und Image Playground, die weitere Anpassungsmöglichkeiten und neue Grafikstile für generierte Bilder und Emojis ermöglichen. Darüber hinaus wird Apple sein On-Device-Basismodell für Apple Intelligence öffnen und Drittanbieter-App-Entwickler einladen, eigene KI-Funktionen zu entwickeln.

„App-Entwickler können auf Apple Intelligence aufbauen, um Nutzern neue, intelligente Erlebnisse zu bieten, die auch offline verfügbar sind und ihre Privatsphäre schützen. Dafür nutzen sie kostenlose KI-Inferenz“, so Apple in einer Erklärung. „Beispielsweise kann eine Bildungs-App das On-Device-Modell nutzen, um aus den Notizen eines Nutzers ein personalisiertes Quiz zu erstellen – ohne Cloud-API-Kosten. Oder eine Outdoor-App kann Suchfunktionen in natürlicher Sprache hinzufügen, die auch offline funktionieren.“

Auch das sind zwar nicht gerade die spektakulärsten Neuigkeiten für Apple Intelligence, aber es könnte ein guter Weg sein, die Entwicklung neuer KI-Funktionen voranzutreiben, insbesondere da Apple im Bereich der generativen KI und großer Sprachmodelle hinterherhinkt. Apropos Rückstand: Was fehlte, war Apples KI-gestütztes Siri-Upgrade. Apple hat das Thema KI zwar angesprochen und angekündigt, später in diesem Jahr mehr darüber zu erfahren. Das ist keineswegs überraschend, aber es ist definitiv ein Hinweis auf Apples Straucheln an der KI-Front.

Die diesjährige WWDC konnte Ihre Bedenken hinsichtlich Apples Fortschritten im Bereich KI zwar kaum zerstreuen, brachte aber dennoch einen kleinen Fortschritt, und das dürfte für die meisten ausreichen. Obwohl die Branche KI-Funktionen betont, ist das Interesse der Verbraucher an diesen Funktionen deutlich geringer. Daher bezweifle ich, dass das diesjährige Update irgendjemanden davon abhalten wird, sich dieses Jahr das neueste iPhone zu kaufen.

Alle Teilnehmer des Apple Developer Program können die neuen Apple Intelligence-Funktionen bereits heute nutzen. Die erste öffentliche Betaversion wird nächsten Monat verfügbar sein. Wenn Sie kein Interesse an Betaversionen haben oder kein Entwickler sind, müssen Sie bis zum Herbst warten, um die neuen Funktionen in vollem Umfang testen zu können.

gizmodo

gizmodo

Ähnliche Nachrichten

Alle News
Animated ArrowAnimated ArrowAnimated Arrow