Connect with us

Nachrichten

Apple verzögert die Einführung des CSAM-Fotoscansystems aufgrund von Datenschutzbedenken

blank

Published

blank

Als Teil seiner Bemühungen, die Kindersicherheitsfunktionen zu verbessern, gab Apple Anfang letzten Monats seine Pläne bekannt, iCloud-Fotos auf potenzielles Material zum sexuellen Missbrauch von Kindern (CSAM) zu scannen. Nach Gegenreaktionen von Sicherheitsexperten und Digital Rights Groups wie der Electronic Frontier Foundation hat Apple nun die Einführung der CSAM-Erkennung verzögert.

Apple verzögert die Einführung der CSAM-Erkennung

Apple war ursprünglich bereit, die CSAM-Erkennung noch in diesem Jahr einzuführen. Sie gilt für Konten, die in iCloud für iOS 15, iPadOS 15 und macOS Monterey als Familien eingerichtet wurden. Der Cupertino-Riese hat das neue Datum für die Einführung der Funktion noch nicht bekannt gegeben Jetzt. Apple hat auch nicht näher erläutert, welche Aspekte der CSAM-Erkennung verbessert werden sollen oder wie es an die Funktion herangehen wird, um ein gesundes Gleichgewicht zwischen Datenschutz und Sicherheit zu bieten.

„Zuvor haben wir Pläne für Funktionen angekündigt, die dazu beitragen sollen, Kinder vor Raubtieren zu schützen, die Kommunikationsmittel verwenden, um sie zu rekrutieren und auszubeuten, und die Verbreitung von Material über sexuellen Missbrauch von Kindern zu begrenzen. Basierend auf dem Feedback von Kunden, Interessengruppen, Forschern und anderen haben wir beschlossen, uns in den kommenden Monaten zusätzliche Zeit zu nehmen, um Input zu sammeln und Verbesserungen vorzunehmen, bevor wir diese kritisch wichtigen Funktionen für die Kindersicherheit veröffentlichen.“ sagte Apple in einer offiziellen Erklärung.

Zur Erinnerung: Die CSAM-Erkennung von Apple funktioniert auf dem Gerät und scannt keine Bilder in der Cloud. Es versucht, bekannte CSAM-Image-Hashes zu erkennen, die von NCMEC und anderen Kinderschutzorganisationen bereitgestellt werden. Dieser Abgleichprozess auf dem Gerät findet unmittelbar vor dem Hochladen eines Bilds in iCloud-Fotos statt. Inzwischen haben Forscher jedoch Hash-Kollisionen entdeckt, die Bilder im Wesentlichen als falsch positiv erkennen könnten. Es wurde auch bekannt, dass Apple seit 2019 iCloud Mail auf Kindesmissbrauch scannt.

Click to comment

Leave a Reply

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.