Wissenschaftler warnen Apple vor seinen "gefährlichen" Kinderschutz-Technologien
Apples geplante Kinderporno-Scans in den Foto-Mediatheken seiner Nutzer schlägt auch weiterhin hohe Wellen. Nun haben sich mit Jonanath Mayer und Anunay Kulshrestha von der Princeton University in der Washington Post zu Wort gemeldet und berichtet, dass sie selbst einst an einem System, wie es Apple nun plant, gearbeitet hätten und es exakt aufgrund der nun von vielen Seiten kritisierten Gründe wieder eingestellt hätten. Konkret haben die beiden Wissenschaftlicher vor zwei Jahren an einem automatisierten CSAM-Erkennungssystem für einen Ende-zu-Ende verschlüsselten Onlinedienst entwickelt. Beide sind anerkannte Experten in ihrem Gebiet und kennen daher den Wert einer Ende-zu Ende Verschlüsselung, weswegen sie nun große Kritiker von Apples Plänen sind.
Während ihrer Arbeit an dem System, bei dem im Vordergrund stand, kinderpornografische Inhalte zu entdecken, ohne dabei die Ende-zu-Ende Verschlüsselung zu brechen, stießen Mayer und Kulshrestha auf ein großes Problem. Zwar gelang es ihnen, einen funktionierenden Prototypen zu bauen, der exakt das tat, was er tun sollte, allerdings konnte es nun auch für alle anderen Inhalte und eben nicht nur kinderpornografische genutzt werden. Es hing lediglich davon ab, mit was für einer Datenbank von Hashwerten von Basisbildern man es fütterte.
Bereits mehrfach wurde an Apples System kritisiert, dass genau dies die große Gefahr darstelle und verschiedene Regime und Regierungen auf der Welt Apple dazu zwingen könnten, die Foto-Mediatheken der Nutzer eben auch nach politischen Zeichen oder ähnlichen Dingen zu durchsuchen. Genau dieser Aspekt war es auch, der die beiden Wissenschaftler bei ihrem System beunruhigte und schließlich sogar dazu führte, dass sie ihre Arbeit daran einstellten.
A foreign government could, for example, compel a service to out people sharing disfavored political speech. That's no hypothetical: WeChat, the popular Chinese messaging app, already uses content matching to identify dissident material. India enacted rules this year that could require pre-screening content critical of government policy. Russia recently fined Google, Facebook and Twitter for not removing pro-democracy protest materials.
We spotted other shortcomings. The content-matching process could have false positives, and malicious users could game the system to subject innocent users to scrutiny.
We were so disturbed that we took a step we hadn't seen before in computer science literature: We warned against our own system design, urging further research on how to mitigate the serious downsides....
Apple hat bislang versucht, mit verschiedenen Interviews, technischen Dokumentationen, FAQs und weiteren Materialien, die Bedenken der Nutzer und Kritiker zu zerstreuen. Bislang mit wenig Erfolg. CEO Tim Cook hat sich zu dem Thema bislang überhuapt noch nicht öffentlich geäußert. Dies dürfte dann wohl allerspätestens auf dem erwarteten iPhone-Event kommenden Monat der Fall sein.