Anzeige

Kinderporno-Scan: Apples Datenschutz-Chef im Interview

    6

Apples Datenschutz-Chef hat zu den neuen CSAM-Algorithmen in iOS 15 Stellung bezogen.

Die Scan-Algorithmen gegen Kinderpornografie erregen derzeit weltweit viel Aufsehen und noch mehr Kritik. Dieser stellte sich Erik Neuenschwander, Datenschutz-Chef Apples, jetzt in einem Interview mit TechCrunch.

Illegaler Datenzugriff nach wie vor nicht möglich

Vor allem standen natürlich datenrechtliche Fragen im Vordergrund. Vor allem verneinte Neuenschwander, dass Behörden durch die neuen Algorithmen mehr Zugriff auf Nutzerdaten bekämen:

Das Gerät ist immer noch verschlüsselt, wir haben immer noch keinen Schlüssel, und das System ist so konzipiert, dass es mit Daten auf dem Gerät funktioniert […] Die Alternative, nur die Daten des Benutzers auf einem Server zu verarbeiten und auszuwerten, ist eigentlich mehr anfällig für Änderungen [ohne Benutzerwissen] und weniger Schutz der Privatsphäre der Benutzer […] Es sind diese Arten von Systemen, die meiner Meinung nach problematischer sind, wenn es um die Datenschutzeigenschaften geht – oder wie sie ohne Benutzereinblick oder -wissen geändert werden könnten Dinge tun, als die, für die sie bestimmt sind.

Entsprechend erhalte Apple erst mit dem gewählten Scan-System keinerlei Zugriff auf Nutzerdaten von Usern, die keine illegalen Dateien auf ihren Geräten oder in ihren iCloud-Accounts liegen haben.

Dafür sei der Hash-Algorithmus speziell konzipiert worden:

Die Hashliste ist in das Betriebssystem integriert, wir haben ein globales Betriebssystem und haben nicht die Möglichkeit, Aktualisierungen für einzelne Benutzer zu fahren. Daher werden die Hashlisten von allen Benutzern geteilt, wenn das System aktiviert ist. Und zweitens erfordert das System, dass der Schwellenwert für Bilder überschritten wird, sodass der Versuch, auch nur ein einzelnes Bild auf dem Gerät einer Person oder einer Reihe von Geräten von Personen zu suchen, nicht funktioniert, da das System Apple schlicht keine Informationen zu einzelnen gespeicherten Fotos zur Verfügung stellt […]. Und drittens ist im System ein Schritt der manuellen Überprüfung eingebaut, in der ein Apple-Team, wenn ein Konto mit einer Sammlung von illegalem CSAM-Material gekennzeichnet wird, dies überprüft, um sicherzustellen, dass es sich um eine korrekte Übereinstimmung mit illegalem CSAM-Material handelt bevor sie an eine externe Einrichtung verweisen.

Damit erklärt Neuenschwander noch einmal das, was auch der jüngst veröffentlichte FAQ von Apple zum Thema besagt: Für Nutzer, die nichts illegales tun, ändere der Algorithmus nichts.

Foto: Pixabay
Teile
in diesem Artikel

Anzeige

Deine Meinung ist wichtig

Die Kommentarfunktion von Disqus wird als Frame eingebunden. Wenn Sie eine Meinung/einen Kommentar abgeben wollen, verlassen Sie damit unsere Webseite/App und posten über Disqus.