Apple zündet die nächste Stufe seiner KI-Pläne für den Alltag.
Apple arbeitet laut Bloomberg-Insider Mark Gurman mit Hochdruck an neuen KI-Wearables. Nach Vision Pro und Apple Intelligence rückt nun der Alltag in den Fokus: Geräte, die sehen, hören und Situationen verstehen.
Ziel ist weniger Bildschirm, mehr Kontext – also KI, die unauffällig mitläuft und relevante Infos liefert.
Smarte Brille ohne Display-Zwang
Die geplanten Smart Glasses sollen keine wuchtige „Taucherbrille“ à la Vision Pro werden, sondern endlich eine leichte Alltagsbrille.
Kameras und Sensoren erfassen die Umgebung, KI analysiert sie in Echtzeit. Denkbar sind Hinweise zu Orten, Personen oder Objekten – diskret per Audio, später auch als Einblendung im Sichtfeld. Marktstart könnte 2027 sein.
AirPods mit Kamera
Auch AirPods sollen visuelle Intelligenz bekommen. Kaum sichtbare Mini-Kameras (anders als in unserem nicht ganz ernst gemeinten Bild) könnten Gesten erkennen oder Räume scannen.
BREAKING: Apple is ramping up work a trio of AI wearables: Smart Glasses, AirPods with Cameras, and a Pendant that can be worn as a necklace or pinned to clothes. New details on all of the devices. https://t.co/J6AZWJMjbs
— Mark Gurman (@markgurman) February 17, 2026
Zusammen mit iPhone und Vision-Technik entstünde ein 360-Grad-Blick für Apple Intelligence – ideal für Navigation, Übersetzungen oder Barrierefreiheit.
KI-Anstecknadel
Als drittes Konzept gilt ein Pendant zu Jony Ives Plänen bei OpenAI: eine Art KI-Anstecknadel mit Kamera und Mikro.
Sie würde Situationen erfassen und kontextbezogene Infos liefern – ähnlich wie der gefloppte Humane AI Pin, aber tief ins Apple-Ökosystem integriert.
Fazit für Apple-Fans: Cupertino denkt KI nicht als App, sondern als unsichtbaren Begleiter.
Hinweis: Artikel enthält Affiliate-Links. Was ist das? KI-Foto: Jörg Heinrich / iTopnews

