Künstliche Intelligenz übernimmt auch unsere Vorurteile – leider.
Eine Studie der deutschen Non-Profit-Organisation AI Forensics analysierte über 10.000 Benachrichtigungszusammenfassungen von Apple Intelligence.
Das Ergebnis: Die KI erwähnt die Ethnizität weißer Personen nur in 53 Prozent der Fälle, während sie bei Asiaten (89 Prozent), Hispanics (86 Prozent) und Schwarzen (64 Prozent) deutlich häufiger darauf hinweist.
Apple Intelligence behandelt Weiß-Sein offenbar als Norm.
Ärzte sind Männer, Krankenschwestern Frauen
Auch Gender-Stereotype schleichen sich ein: In 77 Prozent der Tests fügte die KI Geschlechtszuweisungen hinzu, die in der Originalnachricht gar nicht vorhanden waren.
In 67 Prozent dieser Fälle wurde der Arzt als Mann, die Krankenschwester als Frau angenommen.
Apple’s AI summaries include racial & gender biases, if the query is vague enough https://t.co/7k06Hjsxko #Apple
— AppleInsider (@appleinsider) February 13, 2026
Künstliche Tests, reale Probleme?
AI Forensics räumt ein, dass die Testszenarien künstlich konstruiert und bewusst vage formuliert waren.
Reale Nachrichten könnten anders interpretiert werden. Bei Hunderten Millionen Nutzern können solche Verzerrungen dennoch massive Auswirkungen haben.
Apple sucht nach Lösungen
Nach falschen BBC-Zusammenfassungen holte Apple bereits Google ins Boot und übertrug Craig Federighi die AI-Leitung. Schnelle Verbesserungen sind aber nicht in Sicht.
Hinweis: Artikel enthält Affiliate-Links. Was ist das? iTopnews

