Ein Algorithmus reicht – und plötzlich wird es heikel im Store.
Ein neuer Bericht des Tech Transparency Project zeigt: Sowohl Apple als auch Google führen Nutzer offenbar aktiv zu Apps, die per KI Nacktbilder erzeugen. Suchvorschläge und Werbung lenken gezielt dorthin.
Suchvorschläge als Türöffner
Schon Autocomplete kann problematisch sein: Wer etwa „AI NS“ eingibt, bekommt Vorschläge wie „image to video ai nsfw“. In den Ergebnissen tauchen dann entsprechende Apps weit oben auf.
Tests mit klaren Ergebnissen
Laut Bericht konnten Apps problemlos Gesichter auf Nacktaufnahmen legen. Zitat: „…die erste Suchanfrage nach ‚deepfake‘ zeigte eine Anzeige…“ – inklusive der Funktion, Gesichter auf nackte Körper zu setzen.
While Grok faced most of the heat in the AI porn backlash, Apple isn’t doing itself any favors by allowing dozens of “nudify” apps to stay in the App Store, researchers have found. By @MalcolmOwen
— AppleInsider (@appleinsider) January 28, 2026
Reaktion der Anbieter
Apple kommentierte den Bericht nicht öffentlich, entfernte aber mehrere der genannten Apps. Entwickler versprachen teils Nachbesserungen: Man habe „keine Ahnung gehabt, dass so extreme Inhalte möglich sind“.
Der Befund bleibt: Rund 40 Prozent der Top-Ergebnisse zu Begriffen wie „nudify“ liefern entsprechende Funktionen – teils sogar für Minderjährige zugänglich.
Hinweis: Artikel enthält Affiliate-Links. Was ist das? Foto: Apple

