Die gemeinnützige Organisation AI Forensics hat automatisch erstellte Zusammenfassungen von Apple Intelligence untersucht.
Ihre Studie kommt zu brisanten Ergebnissen. Das auf Hunderten Millionen iPhones, iPads und Macs laufende On-Device-Modell zeige nach Auswertungen von über 10.000 Zusammenfassung systematische Verzerrungen bei der Darstellung von Ethnizität und Geschlecht.
Weißsein als unsichtbarer Standard
In Tests mit fiktiven Nachrichtenberichten stellte AI Forensics fest, dass die Ethnizität weißer Protagonisten deutlich seltener erwähnt wird als die anderer Gruppen.
Während „hispanic“ oder „asian“ in der Mehrheit der Zusammenfassungen erhalten blieben, wurde „white“ häufig weggelassen. Die Forscher sehen darin eine implizite Normsetzung, bei der Weißsein als unsichtbarer Standard behandelt werde.
Besonders problematisch sei das Verhalten bei mehrdeutigen Texten. In über zwei Dritteln der Fälle löste Apple Intelligence absichtlich offen gelassene Pronomen auf, oft entlang gängiger Geschlechterstereotype.
„Sie“ wurde häufiger der Krankenschwester zugeordnet, „er“ eher dem Chirurgen. Auch in anderen Szenarien halluzinierte das System Eigenschaften, die im Ursprungstext nicht vorhanden waren.
Birgt Apple Intelligence ein systemisches Risiko?
Zum Vergleich schnitt ein kleineres Google-Modell mit weniger Parametern besser ab. Angesichts der Reichweite von Apple Intelligence könnte das System unter dem EU AI Act als Modell mit systemischem Risiko gelten.
Apple hat den freiwilligen Verhaltenskodex bislang nicht unterzeichnet. Brisant ist vor allem, dass die Zusammenfassungen automatisch erscheinen – ohne aktive Nutzeranfrage. Verzerrte Inhalte könnten so unbemerkt in den Alltag einsickern.
Hinweis: Artikel enthält Affiliate-Links. Was ist das? Foto: Apple

