Vor zwei Jahren erlebten KI-Apps auf Basis von OpenAI’s GPT-4 einen regelrechten Boom im App Store.
Inzwischen ist der Hype ein wenig abgeflaut, und mit ihm verschwanden einige zu schnell und unfertig entwickelte Anwendungen. Auch Apple hat seitdem seine Richtlinien verschärft und geht konsequenter gegen irreführende oder nachgeahmte Apps vor.
Fake-KI-App erobert die App Store Charts
Umso überraschender ist ein aktueller Fall, den der Sicherheitsforscher Alex Kleber öffentlich machte: Eine vermeintlich offizielle “AI ChatBot”-App schaffte es auf Platz 1 der Business-Charts im US-Mac App Store, mit offenem Bezug auf OpenAI, jedoch ohne tatsächliche Verbindung. Logo, Name, Design und Nutzerführung orientieren sich auffällig an GPT-Originalen.

Entwickler und Firma sind identisch mit einer fast gleich aufgebauten App, inklusive gleicher Screenshots und einer Support-Seite, die lediglich auf ein öffentliches Google-Dokument führt.
Fake-Anwendungen rutschen immer wieder durch
Trotz Apples Kontrolle rutschen solche Anwendungen weiterhin durch. Auch Datenschutzhinweise sind oft irreführend. Manche dieser Apps sammeln deutlich mehr Nutzerdaten als angegeben – darunter Namen, E-Mail-Adressen und Nutzungsverhalten – oft mit unklarer Weiterverwendung. Man sieht: Ein hohes App-Ranking oder positive Bewertungen sagen nichts über Sicherheit aus. User sollten gerade bei KI-Anwendungen prüfen, mit wem sie Informationen teilen.
- alle Deals bei Amazon
- Amazon Prime 30 Tage gratis testen
- Amazon Music Unlimited mit Rabatt
- Kindle Unlimited bis zu 3 Monate gratis
Hinweis: Artikel enthält Affiliate-Links. Was ist das?
