Weitere Informationen zu Apples neuen Technologien zum Schutz von Kindern
Apples gestrige Ankündigung neuer Funktionen für einen besseren Schutz von Kindern auf seinen Geräten hat für eine Menge Aufsehen und Wirbel gesorgt. Inzwischen hat das Unternehmen mit ein paar weiteren Informationen und Klarstellungen nachgelegt. Eine der neuen Funktionen ist das Abgleichen von lokal auf einem iPhone oder iPad gespeicherten Fotos mit Hashwerten, um auf diese Weise Aufnahmen von sexuellem Missbrauch von Kindern zu entdecken. War dies der Fall, werden die betroffenen Bilder für den Nutzer unsichtbar markiert, bevor sie auf iCloud Fotos hochgeladen werden. Im Falle von vermehrten Erkennungen auf einem Account wird dieser gesperrt und der Nutzer von Apple an die zuständigen Behörden gemeldet. Hierbei handelt es sich um eine automatische Funktion, die vom Nutzer nicht deaktiviert werden kann. Allerdings hat Apple nun den Kollegen von MacRumors gegenüber bestätigt, dass die Erkennung nicht durchgeführt wird, wenn iCloud Fotos deaktiviert ist.
Neben dem Abgleich der Fotos mit den Hashwerten hat Apple auch "Communication Safety" für iMessage angekündigt. Hierbei werden Bilder mit potenziell anzüglichen Inhalten erkannt und Minderjährige und deren Eltern beim Empfang selbiger infomiert, bevor sie angezeigt werden. Dies hat selbstverständlich auch bereits Datenschutzbedenken ausgelöst, da Apple offenbar die über iMessage verschickten Bilder scannt. Während auch dies lediglich auf Basis von Hashwerten geschehen soll, hat Apple hier noch einmal für weitere Aufklärung gesorgt. So wird es sich bei der Funktion um ein optionales Feature handeln, welches ausschließlich auf Accounts von Kindern angewendet wird und das von den Eltern explizit in der Familienfreigabe unter iCloud aktiviert werden muss. Ist dies der Fall, wird das empfangene Bild zunächst verschwommen angezeigt und die folgende Meldung eingeblendet:
"Sensitive photos and videos show the private body parts that you cover with bathing suits,. It's not your fault, but sensitive photos and videos can be used to hurt you."
Anschließend kann das Kind auswählen, ob das Foto dennoch angezeigt werden soll. Für Kinder unter 13 Jahren können die Eltern entscheiden, ob sie darüber informiert werden wollen, wenn ihr Sprössling das Bild dennoch sehen möchte. Hierzu informiert Apple mit dem folgenden Text:
Auch bei "Communication Safety" setzt Apple bei der Erkennung der Bildinhalte auf Maschinenlernen. Die Verarbeitung findet auch hier komplett lokal auf dem Gerät statt. Da die iMessage-Nachrichten nach wie vor Ende-zu-Ende verschlüsselt sind, erhält Apple keinen Zugriff auf die verschickten Inhalte."If you decide to view this, your parents will get a notification to make sure you're OK."
Wie zu erwarten haben sich inzwischen auch verschiedene Sicherheits- und Datenschutzexperten zu dem Thema zu Wort gemeldet (via Financial Times). Vor allem erwarten die Experten, dass Apples Schirtt dazu führen wird, dass auch andere Technologiekonzerne nachziehen werden, womit ganze Dämme brechen und die Funktion auch auf andere Bereiche ausgeweitet werden könnten. In der Tat nutzen unter anderem bereits Google, Twitter, Microsoft und Facebook entsprechende Hashwert-Technologien, um Bilder zu erkennen, auf denen Kindesmissbrauch zu sehen ist. Auch Apple nutzt entsprechende Technologien bereits. So hatte man beispielsweise 2019 seine Datenschutzbestimmungen dahingehend angepasst, dass auf iCloud hochgeladene Inhalte auf potenziell illegale Inhalte hin prüfen würde, darunter auch Inhalte auf denen ser sexuelle Missbrauch von Kindern zu sehen ist.
Bereits vor der offiziellen Ankündigung von Apple hatte der Sicherheitsforscher Matthew Green von der Johns Hopkins University in einer Reihe von Tweets seine starken Bedenken gegenüber dem automatischen Scannen der Bilder gegen Hashwerte zum Ausdruck gebracht. Vor allem sieht er die Gefahr, dass das Erkennen von sexuellem Missbrauch künftig auch auf andere Bereiche ausgeweitet werden könnte und dabei unter anderem auch dem potenziellen Erkennen von Zeichen von Aktivisten, Regierungskritikern und anderen Personengruppen Tür und Tor öffne. Zudem führte Green auch bereits gestern Nachmittag an, dass damit künftig auch verschlüsselte Inhalte abgeglichen werden könnten. Dies wird Apple dann auch bereits tun, wenn die über iMessage von Kindern erhaltenen Bilder gegen Nacktheit und andere anzügliche Inhalte gescannt werden. Zwar geschieht dies lokal, allerdings könnten entsprechende Erkennungen anschließend auch weiterführend verarbeitet werden.
Darüber hinaus gab Green zu bedenken, dass es bei der automatischen Erkennung auf Basis von Hashwerten immer zu sogenannten "False-Positives" kommen kann. Zudem ließen sich bewusst Bilder verschicken, die den Hashwerten der bedenklichen Inhalte entsprechen, um Nutzern zu schaden. Apple hält dem entgegen, dass man verschiedene Technologien verwende, um diese Falscherkennungen und Missbräuche so weit es geht zu vermeiden.
Kommentare
Ansicht der Kommentare: Linear | Verschachtelt
Hartmut am :
SOE am :
Laut Heise wird sogar bereits beim ersten Treffer der Account gesperrt und die Behörden informiert.
Nichts von wegen "Weitere Datenänderungen oder Löschungen werden blockiert" - nein, komplette Kontosperrung.
Genau das, was ich gestern sagte:
Vorverurteilung, noch bevor überhaupt die Behörde den Vorwurf als "seriös" eingestuft hat.
Was bedeutet die Kontosperrung wohl für Menschen, die beruflich auf die iCloud angewiesen sind? Welche vertrauensvoll keine Kopie ihrer Daten auf dem Computer haben? Die Kredite über die AppleCard laufen lassen?
Kollateralschaden, was?
Tom am :
Morgen ist es Industriespionage und \344hnliches
Die Kriminellen wird es freuen.
Somit kann man auch fein Bilder mit entsprechendem Hash versenden, um andere in Schwierigkeiten zu bringen
Da wird leider vieles kriminelles aus der Situation passieren
Markus am :
Es ist mir v\366llig schleierhaft wie so etwas auch nur im Ansatz auf Zustimmung sto\337en kann...
B\344r am :
SOE am :
Die Prüfung der Bilder erfolgt auf dem iPhone.
Sowohl für die iCloud Photos, wie auch für iMessage.
Das heisst, über das Thema "unsicheres Netz" sind wir hinaus. Bist du Amerikaner, brauchst du ab Herbst keine Cloud mehr, damit deine Bilder auf dem iPhone überwacht werden.
B\344r am :
gerry am :
https://i2.wp.com/9to5mac.com/wp-content/uploads/sites/6/2019/01/DwGoq2uV4AA_Aov.jpg-large.jpeg?w=2500undquality=82undstrip=allundssl=1
Markus am :