Connect with us

Nachrichten

Apple verzögert die CSAM-Erkennung für iCloud-Fotos, da zuerst Verbesserungen vorgenommen werden sollen

blank

Published

blank

Erst letzten Monat hat Apple eine neue CSAM-Erkennungsfunktion angekündigt, die Ihre iCloud-Fotos scannen würde, um neue Kindersicherheitsfunktionen einzuführen. Die Ankündigung war umstritten, und es sieht so aus, als hätte Apple diese Einführung gebremst, da es darauf abzielt, den Dienst vor der Veröffentlichung zu verbessern.

Apple sagt, dass es diese Entscheidung aufgrund des Feedbacks verschiedener Gruppen getroffen hat

Apple hat 9to5Mac mit der folgenden Erklärung mitgeteilt, dass es Feedback von verschiedenen Gruppen erhalten hat, was es zwingt, seine CSAM-Erkennung vorerst auf Eis zu legen.

Unerwünschte Kontaktvorschläge in iOS / iPadOS Share Sheet ausblenden [Tutorial]

„Letzten Monat haben wir Pläne für Funktionen angekündigt, die dazu beitragen sollen, Kinder vor Raubtieren zu schützen, die Kommunikationsmittel verwenden, um sie zu rekrutieren und auszubeuten, und die Verbreitung von Material über sexuellen Missbrauch von Kindern zu begrenzen. Basierend auf dem Feedback von Kunden, Interessengruppen, Forschern und anderen haben wir beschlossen, uns in den kommenden Monaten zusätzliche Zeit zu nehmen, um Input zu sammeln und Verbesserungen vorzunehmen, bevor wir diese entscheidend wichtigen Funktionen für die Kindersicherheit veröffentlichen.“

Die CSAM-Erkennung von Apple wäre später in diesem Jahr als zusätzliche Funktion von iOS 15, iPadOS 15 und macOS Monterey eingeführt worden. Mit der Verzögerung hat das Unternehmen nur angekündigt, den Service weiter zu verbessern, hat jedoch keinen Zeitplan angegeben, wann die verfeinerte Variante der CSAM-Erkennung veröffentlicht werden soll. Um Sie auf den neuesten Stand zu bringen, wird unten angegeben, wie die Funktion laut 9to5Mac funktionieren würde.

„Die Methode von Apple zur Erkennung bekannter CSAM wurde unter Berücksichtigung der Privatsphäre der Benutzer entwickelt. Anstatt Bilder in der Cloud zu scannen, führt das System einen Abgleich auf dem Gerät mithilfe einer Datenbank mit bekannten CSAM-Bild-Hashes durch, die von NCMEC und anderen Kinderschutzorganisationen bereitgestellt werden. Apple wandelt diese Datenbank weiter in einen unlesbaren Satz von Hashes um, der sicher auf den Geräten der Benutzer gespeichert wird.

Bevor ein Bild in iCloud Photos gespeichert wird, wird für dieses Bild ein Abgleichprozess auf dem Gerät mit den bekannten CSAM-Hashes durchgeführt. Dieser Matching-Prozess wird von einer kryptografischen Technologie angetrieben, die als private Mengenschnitte bezeichnet wird und die bestimmt, ob eine Übereinstimmung vorliegt, ohne das Ergebnis preiszugeben. Das Gerät erstellt einen kryptografischen Sicherheitsgutschein, der das Spielergebnis zusammen mit zusätzlichen verschlüsselten Daten über das Bild codiert. Dieser Gutschein wird zusammen mit dem Bild in iCloud Photos hochgeladen.“

Die Entscheidung wurde von Datenschutzbeauftragten heftig kritisiert, aber Apple blieb bei seiner Entscheidung standhaft und sagte, dass diese Funktion mehr Privatsphäre bieten würde als die Technologie, die von Giganten wie Google und Facebook verwendet wird. Mit dem neuesten Update hat Apple seine Entscheidung gebremst und es ist nicht abzusehen, wann wir die verfeinerte Version der CSAM-Erkennung sehen werden. Unabhängig davon halten wir Sie auf dem Laufenden, also bleiben Sie dran.

Nachrichtenquelle: 9to5Mac

!function(f,b,e,v,n,t,s){if(f.fbq)return;n=f.fbq=function(){n.callMethod? n.callMethod.apply(n,arguments):n.queue.push(arguments)};if(!f._fbq)f._fbq=n; n.push=n;n.loaded=!0;n.version='2.0';n.queue=[];t=b.createElement(e);t.async=!0; t.src=v;s=b.getElementsByTagName(e)[0];s.parentNode.insertBefore(t,s)}(window, document,'script','https://connect.facebook.net/en_US/fbevents.js'); fbq('init', '1503230403325633'); fbq('track', 'PageView');

Click to comment

Leave a Reply

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.