Apple will Fotos auf iPhones und iPads automatisiert nach kinderpornografischem Material durchsuchen.
Der Check findet KI-gestützt lokal am iPhone statt. Ab Herbst sollen Fotos automatisch analysiert werden, bevor sie in die iCloud hochgeladen werden. Apple möchte dabei den Datenschutz wahren.
Datenschützer üben Kritik
Wenn ein problematisches Bild entdeckt wird, soll es gleich gemeldet werden. Kritiker bezeichnen Apples Scan jedoch als Backdoor und sind nicht glücklich mit der Lösung.
Gefährliche Massen-Überwachung
Edward Snowden schreibt auf Twitter, dass er das für ein Massen-Überwachungs-Werkzeug hält. Auch wenn es heute Kinderpornografie sei, könnte Apple schon morgen nach etwas anderem suchen.
No matter how well-intentioned, @Apple is rolling out mass surveillance to the entire world with this. Make no mistake: if they can scan for kiddie porn today, they can scan for anything tomorrow.
They turned a trillion dollars of devices into iNarcs—*without asking.* https://t.co/wIMWijIjJk
— Edward Snowden (@Snowden) August 6, 2021