Das Feature Visual Intelligence feierte sein Debüt mit dem iPhone 16.
Es ist eng mit der Kamerasteuerung verknüpft. Per langem Druck auf den Kamerabutton oder über eine Taste im Kontrollzentrum bzw. auf dem Sperrbildschirm kombiniert die Funktion Kamera und KI, um Inhalte zu erkennen und zu verwerten.
Dazu gehört etwa das Übersetzen von Straßenschildern, das Hinzufügen von Terminen aus Flyern in den Kalender oder das Anzeigen von Restaurantbewertungen.
Screenshots können auch analysiert werden
Mit iOS 26 wurde die Funktion deutlich erweitert. Visual Intelligence ist nicht mehr auf die Kamera beschränkt, sondern funktioniert auch mit Screenshots.
Inhalte auf dem Display lassen sich so analysieren, Links aus Texten extrahieren oder Informationen schneller weiterverwenden.
Tim Cook hat Visual Intelligence jüngst als eines der beliebtesten Apple-Intelligence-Features hervorgehoben. Killer-Feature Visual Intelligence: Das dürfte keine zufällige Bemerkung gewesen sein, denn neue Gerüchte deuten bereits auf eine weiter wachsende, wichtige Rolle der Funktion in kommenden Geräten hin.
Visual Intelligence: Die Zukunft der Apple-KI?
Laut Mark Gurman von Bloomberg plant Apple, visuelle Intelligenz zum Kern zukünftiger Wearables zu machen. Sowohl neue AirPods Pro mit integrierten Kameras als auch Apples geplante Smart Glasses sollen ihre Umgebung analysieren und dem Nutzer kontextbezogene Informationen liefern können.
Damit würde die Funktion weit über das iPhone hinauswachsen – und zu einem zentralen Baustein von Apples KI-Strategie werden.
Hinweis: Artikel enthält Affiliate-Links. Was ist das? Foto: iTopnews

