Mit iOS 26 erweitert Apple seine Visual-Intelligence-Funktionen für iPhones noch einmal deutlich.
Nutzer können die KI des Systems nun nicht mehr nur über die Kamera verwenden, sondern auch für Inhalte, die direkt auf dem iPhone-Bildschirm angezeigt werden. Damit lassen sich Fragen zu Texten stellen, Produkte recherchieren oder Termine direkt in den Kalender übernehmen – alles per Screenshot.
Viele Optionen nach Screenshots
Visual Intelligence wurde erstmals in iOS 18.2 eingeführt, damals als Kamera-Tool zur Erkennung von Objekten, Orten oder Texten. In iOS 26 funktioniert die Funktion nun auch mit Bildschirminhalten. Alles beginnt wie gewohnt mit einem Screenshot:
Nach dem Drücken von Seiten- und Lauter-Taste erscheinen am unteren Rand Optionen, die abhängig vom Inhalt unterschiedliche Aktionen anbieten.

So können Nutzer ähnliche Produkte im Web suchen, Bildausschnitte markieren oder sich Texte zusammenfassen lassen.
Auch Links lassen sich direkt öffnen, Veranstaltungen aus Screenshots in den Kalender übernehmen oder Begriffe von ChatGPT erklären. Wer möchte, kann sich sogar sichtbare Texte vorlesen oder vom System Pflanzen und Tiere identifizieren lassen.
Exklusiv für neuere iPhones
Die Funktion ist Teil von Apple Intelligence und steht nur auf aktuelleren Geräten zur Verfügung: dem iPhone 15 Pro, der iPhone-16-Serie sowie dem iPhone 17 inklusive iPhone Air.
Mit dem Update baut Apple seine KI-Integration also endlich wieder mal aus und macht Visual Intelligence zu einem noch vielseitigeren Werkzeug für den Alltag.
- alle Deals bei Amazon
- Amazon Prime 30 Tage gratis testen
- Amazon Music Unlimited mit Rabatt
- Kindle Unlimited bis zu 3 Monate gratis
In diesem Artikel sind Partner-Links enthalten. Durch einen Klick darauf gelangt ihr direkt zum Anbieter. Solltet Ihr Euch für einen Kauf entscheiden, erhalten wir eine kleine Provision. Für Euch ändert sich am Preis nichts. Danke für Eure Unterstützung. Foto: Apple
