Kommentar: Vorgänge in Russland zeigen das Risiko bei Apples geplanten Kinderporno-Scans
Falls es noch eines eindeutigen Belegs dafür bedurfte, warum Apples geplante Scans der Nutzer-Mediatheken auf kinderpornigrafische Inhalte eine unfassbar schlechte Idee war, liefert das Unternehmen diesen nun selbst. In Russland deaktivierte Apple in der zurückliegenden Woche auf Druck der dortigen Regierung nicht nur die neue Private Relay Funktion von iCloud, man entfernte auch eine App der Opposition aus dem russischen AppStore, nachdem die Regierung örtlichen Apple-Mitarbeitern mit Strafen gedroht habe, sollte dies nicht geschehen. Auch Google knickte diesbezüglich vor dem Kreml ein.
Kritiker sehen in den grplanten Scans der Fotomediatheken eine bedenkliche Hintertür in Apples Systeme, die eben durch eine einfache Änderung des Algorithmus nicht nur zur Suche nach kinderpornografischen Inhalte genutzt werden kann, sondern auch nach bestimmten Symbolen von Regimekritikern und ähnlichen Inhalten. Apple argumentierte stets, dass man dies nicht zulassen werde, da man ja schließlich durch die manuelle Kontrolle als letzten Schritt immer noch das finale Wort habe. Die Vorgänge in Russland sind nun das perfekte Beispiel dafür, dass diese Argumentation nicht funktioniert.
Schon in der Vergangenheit musste sich Apple immer wieder lokalen Gesetzgebungen und Bestimmungen in verschiedenen Regionen der Welt beugen, Apps mit bestimmten Funktionen und Inhalten aus dem AppStore entfernen oder Features seiner Geräte deaktivieren. Dies ist völlig normal und für einen weltweit agierenden Konzern auch nicht ungewöhnlich. Es zeigt allerdings auch die Gefahren, die Apple bezüglich der geplanten Kinderporno-Scans noch immer nicht einsehen oder einräumen will.
Inzwischen meldete sich mit Matthew Green auch der Sicherheitsforscher zu Wort, der Apples Kinderpornoscan-Pläne als erster publik gemacht hatte und schlägt in dieselbe Kerbe
Apple spent the entire summer telling the public that they were confident they could resist government pressure, when defending their CSAM scanning system. Today they’re pulling voting guides from the Russian App Store. What changed in a month?
Apple’s defense of removing voting guides is that they have to obey the law of the nations they operate in. And yet if legislators demand they expand their image scanning corpus, they say they will refuse. They intend to break the law in that case, but not this one?
Mit den Vorgängen in Russland kann Apple eigentlich nicht mehr allen Ernstes argumentieren, dass man Forderungen von repressiven Regimen widerstehen würde, die Kinderporno-Scans auch auf andere Inhalte auszuweiten. Nach der massiven Kritik von Experten und Nutzern zur Einführung der Kinderschutz-Funktionen mit iOS 15 in den USA hat Apple die Pläne aktuell auf Eis gelegt. Im offiziellen Sprachgebrauch heißt es, man wolle sich mehr Zeit nehmen, um die verschiedenen Bedenken und Positionen in die Technologie einfließen zu lassen. Aufgeschoben heißt hier aber nicht aufgehoben. Allerdings gehen Apple zunehmend die Argumente gegen die Kritik aus.
Wer die gesamte Story und ihre Auswirkungen noch einmal nachverfolgen möchte, findet anschließend die entsprechenden Links:
- Mit iOS 15, macOS Monterey und Co.: Apple kündigt neue Funktionen zum Schutz von Kindern an
- Weitere Informationen zu Apples neuen Technologien zum Schutz von Kindern
- Apples Kinderschutz-Maßnahmen: Kritik und Unsicherheit an allen Ecken und Enden
- Apple veröffentlicht FAQ zur Diskussion um seine geplanten Kinderporno-Scans
- Apple könnte seine neuen Kinderschutz-Funktionen auch für Drittanbieter-Apps anbieten
- Kinderporno-Scans: Apples Datenschutz-Manager steht Rede und Antwort
- Mitarbeiter äußern Bedenken an Apples neuen Kinderschutz-Maßnahmen
- Apples Software-Chef Craig Federighi äußert sich zu den geplanten Kinderschutz-Funktionen
- Deutsche Regierung appeliert an Apple: Keine Durchsuchungen von Nutzerinhalten
- Erstes erfolgreiches Reverse-Engeneering von Apples Algorithmus zur Erkennung von Kinderpornos
- Für das Reverse-Engineering verwendete NeuralHash-Version laut Apple nicht die finale Version
- Offener Brief an Apple CEO Tim Cook zum Thema Kinderporno-Scans
- Wissenschaftler warnen Apple vor seinen "gefährlichen" Kinderschutz-Technologien
- Kinderporno-Diskussion: Apple scannt bereits seit 2019 E-Mails über iCloud
- Nach negativem Feedback und Kritik: Apple verschiebt Einführung von Kinderschutz-Funktionen
- Aufschub der Kinderporno-Scans ist nicht genug: EFF fordert gänzliche Abkehr von den geplanten Funktionen
- Britische Regierung unterstützt Apples Pläne für Kinderporno-Scans von Nutzer-Mediatheken