Eine Analyse zeigt, dass Apple seine sogenannten CSAM-Pläne aufgegeben hat.

Eine Analyse zeigt, dass Apple seine sogenannten CSAM-Pläne aufgegeben hat.
Apple hat seine umstrittenen Pläne aufgegeben, sexuellen Kindesmissbrauch (CSAM) in iCloud-Fotos zu erkennen.
Die EU-Kommission will Kindesmissbrauch im digitalen Raum verhindern.
Google hat damit begonnen, Cloud-Dateien auf Verstöße gegen Richtlinien zu scannen.
Apple scheint seine CSAM-Algorithmuspläne weiter auf Eis zu legen.
Apples CSAM-Algorithmus gegen Kinderpornographie liegt eigentlich auf Eis.
Cybersicherheitsforscher haben sich Apples CSAM-Algorithmus vorgenommen.
Apple hat die Maßnahmen des geplanten Kinderporno-Scans vorerst zurückgestellt.
In den USA demonstrieren Menschen gegen Apples Kinderporno-Scan.
Die Electronic Frontier Foundation fordert von Apple, den Kinderporno-Scan gänzlich aufzugeben.
Apple hat soeben in einer Erklärung den vorläufigen Verzicht auf Kinderporno-Scans erklärt.
Auch Edward Snowden hat sich jetzt zu Apples CSAM-Scanplänen geäußert.
Forscher, die Technologien hinter Apples Kinderporno-Scanner entwickelten, mahnen zur Vorsicht.
Die Nachrichten zu Apples kommendem CSAM-Scanalgorithmus reißen nicht ab.
Der Talkshow-Host Bill Maher hat Apples Kinderporno-Scann scharf kritisiert.