Ein Update zum iCloud Bilderscan

Was als “Erweiterter Schutz für Kinder” (engl. Expanded Protections for Children) scheinbar harmlos begann, dürfte Apples PR in diesem Sommer 2021 einigen Stress bereitet haben. Der nicht endenden Kritik wurde inzwischen mit einer Informationsoffensive begegnet.

Hier einige interessante Erkenntnisse der vergangenen Tage:

  • Der Schwellenwert für erkannte Verstöße liegt bei 30: Noch Anfang der Woche wollte sich Apple nicht dazu äußern, wie viele Positivfälle beim iCloud Bilderscan nötig sind, bis das erste Mal ein Mitarbeiter Apples informiert wird und gegencheckt, ob es sich wirklich um Material handelt, das den sexuellen Missbrauch von Kindern zeigt. Da Apple die Fehlerkennungsrate bei einem einzelnen Bild mit eins zu einer Billion beziffert, geht das Unternehmen offenbar mehr als auf “Nummer sicher”.
  • Apple räumt Fehler bei der Kommunikation ein: Die gleichzeitige Ankündigung der KI-Prüfung auf sexuelles Material in der Nachrichten-App und des iCloud Bilderscans habe zu vielen Missverständnissen geführt, räumte Softwarechef Craig Federighi in einem Interview mit dem Wall Street Journal ein. Tatsächlich funktionieren die beiden Säulen des erweiterten Kinderschutzes technisch komplett unterschiedlich: Während beim iCloud Bilderscan eine Gegenprüfung mit Prüfsummen einer Datenbank erfolgt, arbeitet Apple in der Nachrichten-App mit künstlicher Intelligenz. In der Nachrichten-App werden Funde niemals mit Apple kommuniziert. Es sei überdies falsch, dass jedes Bild auf einem iPhone gescannt wird – gescannt werden nur Bilder, die im Begriff sind, in die in iCloud hochgeladen zu werden. Faktisch bedeutet das allerdings, dass Nutzer die iCloud nicht mehr nutzen können, wenn sie mit dem Bilderscan nicht einverstanden sind.
  • Vertrauen in die Prüfdatenbank: Apple will Befürchtungen, dass die Prüfdatenbank für den iCloud Bilderscan manipuliert wird, mit verschiedenen Maßnahmen entgegen treten. Nutzer sollen sich auf ihren Geräten den Root Hashwert – eine Prüfsumme – der Datenbank anzeigen lassen können, um ihn mit der Angaben auf Apples Website gegenchecken zu können. Dadurch können sie sichergehen, dass diese nicht manipuliert wurde. Auch sollen Dritte überprüfen, dass wirklich nur Prüfsummen für strafbares Material in der Datenbank stehen. Damit ein Bild für die Datenbank in Frage kommt, muss es von zwei Kinderschutzorganisationen unabhängig voneinander eingereicht werden.
  • Einführung erst mit iOS 15.x: Die neuen Funktionen kommen nicht direkt mit den neuen Versionen von iOS, iPadOS und macOS im Herbst, sondern sollen als Updates hierfür ausgeliefert werden. Die Einführung ist ohnehin erst in den USA geplant.

In Apfelfunk 288 haben wir uns dem Thema ausführlich gewidmet. Hier im Blog gibt es auch einen ausführlichen Post mit einigen Einschätzungen und Erläuterungen.

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.

Diese Website verwendet Akismet, um Spam zu reduzieren. Erfahre mehr darüber, wie deine Kommentardaten verarbeitet werden.