Wissenschaftler warnen Apple vor seinen "gefährlichen" Kinderschutz-Technologien
Apples geplante Kinderporno-Scans in den Foto-Mediatheken seiner Nutzer schlägt auch weiterhin hohe Wellen. Nun haben sich mit Jonanath Mayer und Anunay Kulshrestha von der Princeton University in der Washington Post zu Wort gemeldet und berichtet, dass sie selbst einst an einem System, wie es Apple nun plant, gearbeitet hätten und es exakt aufgrund der nun von vielen Seiten kritisierten Gründe wieder eingestellt hätten. Konkret haben die beiden Wissenschaftlicher vor zwei Jahren an einem automatisierten CSAM-Erkennungssystem für einen Ende-zu-Ende verschlüsselten Onlinedienst entwickelt. Beide sind anerkannte Experten in ihrem Gebiet und kennen daher den Wert einer Ende-zu Ende Verschlüsselung, weswegen sie nun große Kritiker von Apples Plänen sind.
Während ihrer Arbeit an dem System, bei dem im Vordergrund stand, kinderpornografische Inhalte zu entdecken, ohne dabei die Ende-zu-Ende Verschlüsselung zu brechen, stießen Mayer und Kulshrestha auf ein großes Problem. Zwar gelang es ihnen, einen funktionierenden Prototypen zu bauen, der exakt das tat, was er tun sollte, allerdings konnte es nun auch für alle anderen Inhalte und eben nicht nur kinderpornografische genutzt werden. Es hing lediglich davon ab, mit was für einer Datenbank von Hashwerten von Basisbildern man es fütterte.
Bereits mehrfach wurde an Apples System kritisiert, dass genau dies die große Gefahr darstelle und verschiedene Regime und Regierungen auf der Welt Apple dazu zwingen könnten, die Foto-Mediatheken der Nutzer eben auch nach politischen Zeichen oder ähnlichen Dingen zu durchsuchen. Genau dieser Aspekt war es auch, der die beiden Wissenschaftler bei ihrem System beunruhigte und schließlich sogar dazu führte, dass sie ihre Arbeit daran einstellten.
A foreign government could, for example, compel a service to out people sharing disfavored political speech. That's no hypothetical: WeChat, the popular Chinese messaging app, already uses content matching to identify dissident material. India enacted rules this year that could require pre-screening content critical of government policy. Russia recently fined Google, Facebook and Twitter for not removing pro-democracy protest materials.
We spotted other shortcomings. The content-matching process could have false positives, and malicious users could game the system to subject innocent users to scrutiny.
We were so disturbed that we took a step we hadn't seen before in computer science literature: We warned against our own system design, urging further research on how to mitigate the serious downsides....
Apple hat bislang versucht, mit verschiedenen Interviews, technischen Dokumentationen, FAQs und weiteren Materialien, die Bedenken der Nutzer und Kritiker zu zerstreuen. Bislang mit wenig Erfolg. CEO Tim Cook hat sich zu dem Thema bislang überhuapt noch nicht öffentlich geäußert. Dies dürfte dann wohl allerspätestens auf dem erwarteten iPhone-Event kommenden Monat der Fall sein.
Kommentare
Ansicht der Kommentare: Linear | Verschachtelt
MYTHOSmovado am :
Ziemlich sicher ist f\374r mich, dass das passieren wird. Und es ist jetzt egal, ob die Technik schlussendlich zur Anwendung kommt, oder aufgrund der massiven Kritik evtl. doch nicht \u2026 die Weichen sind gestellt, die Regime wissen, dass was machbar ist; sie werden fordern und zu zwingen versuchen.
Die Frage ist, bleibt Apple standhaft oder nicht?
Wie Apple auch immer entscheidet, irgend einen Tod werden sie immer sterben.
Misha7 am :
Nordrocker am :
Peter am :
Nordrocker am :
Das ist mir neu. Was sagt Apple dazu?
Oder hast du einfach nicht verstanden wor\374ber hier diskutiert wird?
Andrer am :
Offen gestanden glaube ich nicht, dass irgendein P\344dophiler nach dieser laufenden Diskussion auf die Idee kommt, \u201eMaterial\u201c auf seinem iphone Bzw device zu speichern, was gescanned werden kann
Insgesamt ist das ein unfassbarer Eingriff in die Privatsph\344re
Man kann ja mal Tim Cook fragen, ob er dieses Feature nicht auch Staaten anbieten will, in denen lt Schariarecht bestimmte Neigungen streng bestraft werden (Steinigen, von Mauer erschlagen, von Haus werfen), um diese erkennen zu k\366nnen
Das n\344chste - wie wird mit Beweisen umgegangen, die ohne richterliche Genehmigung aus einem per Gesetz unverletzlichem Raum gewonnen wurden?
Und nat\374rlich- spielen wir das mal als reale L\366sung duech - wie werden die zu Unrecht Angeklagten entsch\344digt bzw deren Ruf wieder hergestellt?
Anonym am :
Nordrocker am :
Auch wenn diese dadurch traumatisiert werden k\366nnen und dann ihr Leben lang Angst haben engeren Kontakt zu kleinen Kindern zu haben.
Ich kenne solch einen Fall aus dem weiteren Bekanntenkreis. Dort hat jemand vor ca. 20 Jahren eine PC Software gekauft und weil man bei der Firma konderpornografisches Material gefunden hat, wurden der Kunde (5Jahre nach dem Kauf) als T\344ter gef\374hrt und bekam Besuch von der Polizei. Beschlagnahme seiner PC\u2018s und Befragung seiner Tochter ohne sein Beisein waren die weniger schlimmen Erlebnisse. Der Mann hat bis heute Angst kleine Kinder in den Arm zu nehmen zu nehmen obwohl er nachweislich nichts mit der ganzen Scheisse zu tun hatte.
Das Wort Entsch\344digung oder Hilfe ist bis heute seitens der Beh\366rden nicht einmal gefallen.
Wer sowas nicht erlebt hat oder jemanden kennt der das erlebt hat kann die Tragweite von dem was Apple vor hat gar nicht verstehen.
RR703 am :
Anonym am :
Joen am :
https://www.watson.ch/digital/analyse/196785301-neuralhash-apples-kinderporno-scanner-steckt-bereits-im-iphone-drin