Ein raffinierter Trick hebelt Schutzmechanismen moderner KI aus.
Sicherheitsforscher zeigen jetzt, wie sich Apple Intelligence mit einer Prompt-Injection austricksen ließ.
Entscheidend war die Kombination zweier Methoden: einer manipulierten Zeichenfolge und einer Technik namens „Neural Exec“, die Systemanweisungen überschreibt.
Filter ausgetrickst
Die Angreifer schrieben schädliche Inhalte rückwärts und nutzten ein Unicode-Zeichen, das die Darstellung umkehrt.
Für Nutzer wirkte der Text normal – die Sicherheitsfilter sahen jedoch nur harmlosen Code und ließen ihn passieren.
Kontrolle über das Modell
Erst im zweiten Schritt griff „Neural Exec“: Die Methode zwingt das Modell, fremde Befehle auszuführen.
Researchers detail how a prompt injection attack bypassed Apple Intelligence protections https://t.co/ZkIkDVEN7Z by @mvcmendes
— 9to5Mac (@9to5mac) April 9, 2026
So konnten die Forscher Apples On-Device-KI gezielt zu unerwünschten Aktionen bringen – trotz bestehender Schutzmechanismen.
Hohe Erfolgsquote, schnelle Reaktion
In Tests funktionierte der Angriff in 76 Prozent der Fälle. Apple wurde im Oktober 2025 informiert – und hat die Sicherheitsmaßnahmen für die betroffenen Systeme seitdem verschärft. Die Fixes stecken bereits in iOS 26.4 und macOS 26.4.
Hinweis: Artikel enthält Affiliate-Links. Was ist das? Foto: Apple

