Hier tippt Ihr privat, und landet doch auf einem offenen Server.
Sicherheitsforscher haben massive Datenlecks bei populären KI-Apps entdeckt. Millionen Chats, Texte, Bilder und Dokumente waren zeitweise frei im Internet abrufbar.
Ursache sind meist falsch konfigurierte Cloud-Datenbanken ohne Passwortschutz. Betroffen sind nicht Einzelfälle, sondern weit verbreitete Apps aus den App Stores.
Diese KI-Apps stehen konkret in der Kritik
Genannt werden unter anderem Chat & Ask AI, Genie – AI Chatbot, Ask AI Assistant, AI Chat Smith und AI Chatbot Assistant.
Bei einzelnen Anwendungen lagen laut Forschern hundert Millionen Dateien offen zugänglich auf Servern – inklusive kompletter Unterhaltungen, hochgeladener PDFs und persönlicher Angaben.
Warum auch Apple-Nutzer aufpassen müssen
Alle genannten Apps sind oder waren auch im App Store für iPhone und iPad verfügbar.
Extremely poorly constructed AI apps available in the App Store are leaking the data of millions of users, a repository from a security research team has revealed. By @MalcolmOwen
— AppleInsider (@appleinsider) January 20, 2026
Apples App-Prüfung verhindert Schadsoftware, kontrolliert aber nicht die Server-Sicherheit der Anbieter. Wer KI-Tools für Texte, Mails oder Dokumente nutzt, gibt Inhalte oft in dem Glauben ein, sie blieben vertraulich.
Was jetzt dringend ratsam ist
Keine sensiblen Daten eingeben: keine Passwörter, Ausweise, Verträge oder privaten Dokumente. KI-Apps kritisch auswählen, Datenschutzerklärungen lesen und Chat-Verläufe regelmäßig löschen. Wer produktiv mit KI arbeitet, sollte auf Anbieter setzen, die transparent erklären, wo Daten gespeichert werden.
Kurz gesagt: KI kann praktisch sein – fahrlässiger Umgang mit Daten ist es nicht.
Hinweis: Artikel enthält Affiliate-Links. Was ist das? KI-Foto: Jörg Heinrich / iTopnews

