Wie Apple künftig unsere Fotos nach Kinderpornos scannt – und warum das gleichzeitig gut und gefährlich ist

Eine diskussionswürdige Schlagzeile brach sich am Freitag, 6. August, Bahn: Apple scannt die privaten Fotos von Nutzern des iCloud-Speichers künftig nach Bildmaterial, das sexuellen Kindesmissbrauch zeigt. Bei einer unbestimmten Zahl von Funden wird der US-Konzern dann aktiv, prüft die Bilder und schaltet bei bestätigten Positivfällen eine Meldestelle ein, die mit staatlichen Strafverfolgungsbehörden zusammenarbeitet.

In einem ersten Schritt wird Apple den Bilderscan mit iOS 15 und iPadOS 15 im Herbst in den USA einführen. Weitere Länder sollen entsprechend ihrer jeweiligen Gesetze folgen. Inwieweit solch ein Vorgehen mit der europäischen Datenschutzgrundverordnung (DSGVO) vereinbar ist, ist eine von vielen noch offenen Fragen.

Wer könnte was dagegen haben?

Kinderschänder und solche, die deren Unwesen befördern, ans Messer liefern: Wer kann schon etwas dagegen haben? Dieser erste Reflex dürfte wohl nahezu jeden beim ersten Lesen erfasst haben. „Ich habe ja nichts zu verbergen“, sagt der unbescholtene iPhone-Nutzer. Und ja, wahrscheinlich hat er tatsächlich auch nichts zu befürchten, wenn der Mechanismus so datenschutzsicher und treffsicher ist, wie Apple ihn beschreibt.

Diskussionswürdig wird das Thema allerdings, wenn man es weiterdenkt.

Wie steht es um den Datenschutz?

In einem mehrseitigen Dokument legt Apple dar, dass der Konzern nichts über die Bilder des Nutzers erfährt, die negativ gescannt wurden. Auch könne das Unternehmen selbst im Positivfall keinen Zugriff auf Metadaten oder Bildinhalte nehmen, sofern eine bestimmte Schwelle von Treffern nicht überschritten wird. Was genau Apple damit meint, bleibt unklar. Eine mögliche Erklärung: Dass Täter mit einzelnen Bildern durchs Raster fallen, nimmt Apple offenbar in Kauf, um nicht bei Fehlerkennungen in die Privatsphäre der Nutzer einzudringen. Das nachvollziehbare Kalkül: Je öfter das System bei einem Nutzer anschlägt, desto eher ist auch etwas dran, dass hier ein tatsächlicher Krimineller erwischt wurde. Das Fehlerkennungsrisiko beziffert Apple aber selbst im Einzelfall auf eins zu einer Billion.

Wie funktioniert der Scan?

Apple hat sich ein technisch sehr interessantes Verfahren überlegt, um den Kinderporno-Scan auf den Nutzergeräten vornehmen zu können. Dabei soll ein hohes Maß an Datenschutz gewährleistet werden.

Zunächst einmal werden die Bilder nicht in der Cloud gescannt, sondern auf den Nutzergeräten selbst. Schon das zeigt an, dass Apple nicht mit den Bildern als Ganzes arbeitet, sondern möglichst minimalistisch vorgehen muss, um Bandbreite und Rechenzeit zu schonen.

Diese Erkennung findet – vereinfacht gesagt – mit einer Prüfsumme statt. Jede Datei und jedes Bild kann in einen mathematischen Fingerabdruck umgewandelt werden. Das Ganze ist eine Einbahnstraße: Der Fingerabdruck lässt beim Vergleich mit einem anderen Fingerabdruck den Rückschluss zu, ob es sich um dasselbe oder ein ähnliches Bild handelt. Die Prüfsumme lässt sich aber nicht in das Bild zurückverwandeln.

Nun könnte ein findiger Pädophiler einfach den Zuschnitt oder die Farben eines Bildes ändern, das potenziell in der Datenbank steht. Er könnte auch einfach ein Pixel austauschen – bei einem Datei-Hash, der in Software gerne verwendet wird, um Duplikate zu erkennen, würde das dazu führen, dass der Scan negativ ausfällt. Apple aber arbeitet mit einem so genannten Neural Hash, der nicht anhand der Pixel eine Prüfsumme bildet, sondern anhand bestimmter visueller Eigenschaften (Features). Wenn also ein Baum auf einem Foto zu sehen ist, dann erkennt das Apple-Gerät diesen und erzeugt einen Hashwert hierfür sowie für weitere erkannte Eigenschaften. Aus der Vielzahl der Features entsteht ein einzigartiger Fingerabdruck. Apple setzt also auf die Fähigkeiten der Künstlichen Intelligenz, die in den Geräten schon seit mehreren Generationen steckt. In der Fotos-App kann zum Beispiel heute schon nach Löwen oder anderen Motiven gesucht werden, ohne dass der Nutzer sie jemals verschlagwortet hat, weil die Geräte selbst die Beschreibung erkennen.

Grundlage für den anschließenden Abgleich mit Bildern von Missbrauch ist eine Datenbank mit Neural Hash-Werten, die von Organisationen bereitgestellt werden, die sich für die Sicherheit von Kindern einsetzen. Diese Datenbank aus Prüfwerten wird auf das Nutzergerät geladen und dort abgeglichen.

Dieser Scan soll laut Apple ab Herbst jedes Mal stattfinden, bevor ein Bild in iCloud Photos gespeichert wird. Das Ergebnis dieses Abgleichs wird laut Apple so verschlüsselt, dass das Ergebnis nicht ausgelesen werden kann, solange nicht eine bestimmte Schwelle von positiven Abgleichen überschritten wird.

Im mehrfachen Positivfall will Apple das fragliche Bildmaterial sichten und beurteilen. Erhärtet sich der Verdacht, soll eine nationale Meldestelle in Kenntnis gesetzt werden, die alles weitere veranlasst.

Der Scan-Prozess betrifft allerdings laut Apple nur die Cloudspeicherung. Wer diese abschaltet und Bilder nur lokal speichert, entgeht dem Scan. Auch sind iOS 15 und iPadOS 15 Voraussetzung dafür. Unklar bleibt, ob Apple die Cloudspeicherung irgendwann von einem aktuellen Betriebssystem abhängig macht.

Was ist mit Fehlerkennungen?

Eine große Sorge von Nutzern, die sofort nach Bekanntwerden laut wurde, betrifft das Risiko von Fehlerkennungen. Was passiert, wenn ein Vater oder eine Mutter die eigenen Kinder unbekleidet beim Baden fotografiert und die Software hier einen Fall von Kindesmissbrauch wittert?

Folgt man Apples Dokumentation, sind solche falschen Unterstellungen ausgeschlossen. Das System beurteilt nicht die Inhalte der Bilder nach eigenem Ermessen, sondern gleicht sie mit Prüfwerten von Bildmaterial ab, das eindeutig als strafbar identifiziert wurde.

Dennoch ist Maschine Learning nicht unfehlbar. Der Gedanke, dass ein größeres Versagen der Technik von Apple zur Folge hat, dass Apple-Mitarbeiter private Fotos einsehen, um dann Entwarnung zu geben, dürfte bei aller Unwahrscheinlichkeit bei einigen Unbehagen auslösen. Denn der Nutzer erfährt laut Apple gar nicht, wenn es Verdachtsfälle gibt oder gab. Folglich findet vieles mit ureigenen privaten Daten im Verborgenen statt.

Es ist wie mit dem Vermieter und der Wohnung: Wann darf er tätig werden, weil sich der Mieter „daneben benimmt“ und wann nicht? Darf er mit dem Zweitschlüssel ungehindert Zugang nehmen, nur weil er Ungemach wittert? Muss er andererseits alles dulden, obwohl es sein Haus ist?

Hilft das wirklich?

Da der Scan nur Fälle von Kindermissbrauch entdeckt, die Fahndern und Meldestellen schon bekannt sind, dürfte das System wohl kaum bei den Erstverbreitern oder gar Tätern anschlagen. Es wird wohl allem der Weiterverbreitung bekannten Materials einen Riegel vorschieben und diejenigen, die sich strafbar machen, einer Strafverfolgung zuführen.

Das alleine ist zweifellos eine gute Sache, doch es sind Zweifel angezeigt, ob der Kindesmissbrauch damit auf Dauer wirklich effektiv bekämpft werden kann.

Gerade die professionellen Täter werden nach Bekanntwerden der Risiken für sie andere Wege nutzen, so wie Drogendealer und andere Schwerkriminelle ebenfalls ihre eigenen Messenger und Netzwerke verwenden. Übrig bleiben die Dummen und mancher Ersttäter, der nicht einfach die Cloud-Speicherung auf seinem Gerät abschaltet.

Wo ist also das Problem?

Die entscheidende Frage lautet: Heiligt der Zweck die Mittel?

Wer in soziale Netzwerke wie Facebook schaut, wird immer wieder auf Nutzer-Umfragen stoßen, die zum Ergebnis haben, dass Kindesmissbrauch und der Besitz bzw. die Verbreitung von Kinderpornografie härter bestraft werden sollte. Es ist zu erwarten, dass große Teile der Gesellschaft somit die Mittel durchaus für legitim halten, auch wenn die Wirksamkeit in Zweifel gezogen werden kann und viele trotzdem durchs Raster fallen.

Die ersten Reaktionen im Netz zeigen: Die Debatte dreht sich bei weniger technikaffinen Menschen vor allem um den Zweck, den kaum einer in Zweifel ziehen dürfte, weniger aber um die Mittel, deren problematische Dimension der Laie kaum überblicken kann.

Das Problem ist nämlich gar nicht die Suche nach Bildern von Kindesmissbrauch, sondern das, was Apple hierfür technisch auf den Weg bringt.

Strafermittlungsbehörden wie das amerikanische FBI klopften in der Vergangenheit immer wieder bei Apple an der Tür, wenn es etwa darum ging, auf Geräte-Speicherdaten von mutmaßlichen Terroristen Zugriff zu nehmen. Apple zog in den USA viel Zorn auf sich, da beteuert wurde, dass dies selbst dem Hersteller nicht möglich ist. Das Einrichten einer Hintertür (Backdoor) für legitime Fälle von Strafverfolgung, wie sie staatliche Stellen wiederholt forderten, wurde stets abgelehnt mit der Begründung, dass eine Hintertür eben auch von anderen missbraucht werden kann, wenn sie erst einmal existiert.

Warum sollte ein Bilderscan aber nicht leicht so zu erweitern sein, dass damit künftig auch Mörder, Terroristen und andere Straftäter entlarvt werden können? Auch hier stellt sich die Frage: Wer könnte etwas dagegen haben? Aber was ist, wenn autokratisch regierte Staaten diese Möglichkeit sehen und Apple unter Druck setzen, sie zur politischen Verfolgung zu verwenden?

Das Beispiel Chinas mit eigenen Rechenzentren, die Apple für seine Cloudspeicherung dort einsetzen muss, und den damit einhergehenden Fragen zum Datenschutz der dortigen Menschen zeigt, dass solche Gedankenmodelle nicht völlig aus der Luft gegriffen sind. Apple musste sich dort schon mehrfach dem Staat beugen, um weiterhin im Geschäft bleiben zu können. Ähnlich in Saudi-Arabien und anderen Ländern, wo Apple auf Geheiß der dort Herrschenden bestimmte Dienste nicht anbietet, da sie den Menschen verschlüsselte Kommunikation ermöglichen.

„Alles, was es braucht, um die Hintertür zu erweitern, ist, dass Apple die Maschinen-Lern-Parameter erweitert, so dass auch nach anderen Inhalten gesucht wird“, schreibt die Elektronic Frontier Foundation (EFF) in einer Stellungnahme. Apple habe ein System erschaffen, das nur darauf warte, unter externem Druck erweitert zu werden, so die Sicherheitsexperten. Es sei technisch unmöglich, ein System zu erschaffen, das ausschließlich für die Verfolgung von Kindesmissbrauch und nicht auch für andere Zwecke genutzt werden kann. Zudem würde die End-zu-End-Verschlüsselung ausgehebelt. Neben dem iCloud-Bilderscan führt Apple auch in iMessage eine Funktion ein, die Bilder bewertet, die Kindern zugeschickt werden und entsprechend ausblendet bzw. einen Warnhinweis anzeigt.

Privatsphäre, adé?

Das Thema hat eine Dimension, die weit über die eigentliche Ankündigung hinausreicht. Die elektronische Kommunikation, Cloudspeicherung und Smartphones sind längst Bestandteile unseres Alltags, obwohl sich gesellschaftlich immer noch einrüttelt, wie sie reglementiert werden sollen und müssen. Dammbrüche, die in diesem Prozess heute geschehen, beeinflussen also massiv die Zukunft, von der auszugehen ist, dass wir in ihr noch digitaler als heute unterwegs sind. Vermeintlich gute und nach heutigen Maßstäben harmlose Aktionen können in den Überwachungsstaat von morgen münden – das hat nichts mit Paranoia zu tun, sondern einfach mit den neuen technischen Möglichkeiten, die uns heute schon Gutes wie Negatives – auf alle Fälle in alle Bereich des Lebens Einschneidendes – ermöglichen, was vor Jahrzehnten undenkbar war.

Viele Nutzer fühlen sich nach Datenskandalen (z.B. Pegasus) und Berichten über das Tun von Geheimdiensten im Netz heute schon überwacht. Sie leben in dem (irrationalen) Gefühl, das ohnehin alles einsehbar ist wie eine Postkarte. Sie trauen den Tech-Konzernen nicht und das durchaus begründet: Andere Konzerne als Apple praktizieren längst Scans von Cloud-Gespeichertem – seien es E-Mails oder Fotos. Diese resignative Haltung birgt allerdings die Gefahr, dass die Gesellschaft nicht für Mindeststandards eintritt, die sie in Zukunft vor Ungemach bewahren kann.

Privatsphäre ist Vertrauenssache. Und der normale Nutzer kann kaum bis gar nicht ermessen, ob das Versprechen der Hersteller glaubwürdig ist. Es würde tiefe Einblicke in das System erfordern. Und selbst wenn wir alle Quelltexte lesen dürften, wären sie zu umfangreich und zu komplex, um als Laie eine begründete Einschätzung vornehmen zu können.

Apple hat dennoch bisher recht glaubwürdig dargelegt, dass Privatsphäre als Menschenrecht angesehen wird und dass die Firma keinen monetären Nutzen davon hätte, die Nutzerdaten in irgendeiner Weise zu sichten und zu verarbeiten. Das unterscheidet Apple von Konzernen wie Google und Facebook, bei denen Daten die Währung sind und von denen sie möglichst viele benötigen, um in der Werbewirtschaft erfolgreich zu sein (auch wenn sie alle beteuern, den Wert von Datenschutz auch zu achten und/oder stärker in den Fokus zu nehmen).

Wenn Apple nun nach eigenem Ermessen Ausnahmen in der Privatsphäre zulässt – und seien sie technisch noch so gut verschlüsselt und geschützt -, so ist das dennoch eine Abkehr von dem uneingeschränkten Anspruch auf Privatsphäre, der Nutzerinnen und Nutzern bislang eingeräumt wurde. Privacy comes at a price – Datenschutz hat seinen Preis – und der ist im Falle von Kinderschändern gefühlt ein abartig hoher. Aber ist der Ekel vor schlimmen Verbrechen Grund genug, Grundrechte wie Privatsphäre auszuhebeln?

Privatsphäre und Datenschutz für die Guten ist – das ist eine bittere Lehre – nur zu haben, wenn er zunächst einmal auch den Bösen eingeräumt wird. Um das Böse dennoch zu ahnden, gibt es die Strafverfolgungsbehörden, die gesetzlich ermächtigt sind, in begründeten Fällen das Gemeinwohl über die Privatsphäre des einzelnen zu stellen. All dies ist eingebettet in einem System, das durch Kontrollinstanzen wie Gerichte vermeiden soll, dass diese Eingriffe willkürlich stattfinden.

Es ist leider kein perfektes, aber ein gutes System, das den Menschen in vielen Ländern jahrzehntelang ein Leben in Freiheit ermöglicht hat. Wir sollten technische Entwicklungen, die in dieses Gleichgewicht der Kräfte hineinwirken, deshalb immer kritisch hinterfragen, ob sie verhältnismäßig sind. Und ob es wirklich Konzernen wie Apple, Google und anderen überlassen werden sollte, sie ohne gesellschaftlichen Konsens einzuführen, nur weil sie durch Marktanteile die Macht dazu haben.

Weiterführende Links

Erläuterungen von Apple zum technischen Verfahren: https://www.apple.com/child-safety/pdf/CSAM_Detection_Technical_Summary.pdf

Statement der Electronic Frontier Foundation: https://www.eff.org/deeplinks/2021/08/apples-plan-think-different-about-encryption-opens-backdoor-your-private-life

Offener Brief von Sicherheitsexperten: https://appleprivacyletter.com/

Fotonachweis: Nathy dog/Unsplash

One Comment

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

You may use these HTML tags and attributes: <a href="" title=""> <abbr title=""> <acronym title=""> <b> <blockquote cite=""> <cite> <code> <del datetime=""> <em> <i> <q cite=""> <s> <strike> <strong>

Diese Website verwendet Akismet, um Spam zu reduzieren. Erfahre mehr darüber, wie deine Kommentardaten verarbeitet werden.