Skip to content

Apple sichert sich Rechte am Spionage-Thriller "Argylle" und setzt "Physical" in zweiter Staffel fort

Thriller-Fans dürfen sich auf einen weiteren Neuzugang für Apple TV+ freuen. Wie die Kollegen von Deadline berichten, hat sich Apple die Rechte an "Argylle" einem Spionage-Thriller von Matthew Vaughn gesichert und sich diese satte 200 Millionen Dollar kosten lassen haben. Der Film basiert auf dem  kommenden Roman der Schriftstellerin Ellie Conway über den besten Spion der Welt (war dies nicht eigentlich James Bond?) und dessen Aufträge auf der ganzen Welt. Die Dreharbeiten sollen noch in diesem Jahr beginnen und Henry Cavill in der Hauptrolle sehen. Ebenfalls unter der Besetzung befinden sollen sich die Sängerin Dua Lipa, Wrestling-Star John Cena, die Hollywood-Stars Samuel L. Jackson, Sam Rockwell, und Bryan Cranston und viele mehr. Ein konkreter Starttermin steht allerdings noch nicht fest.

Darüber hinaus hat Apple bekanntgegeben, dass die beliebte Hit-Serie "Physical" um eine zweite Staffel verlängert wird. "Physical" spielt im San Diego der 1980er Jahre. Im Mittelpunkt der Story steht Sheila Rubin (gespielt von Rose Byrne), eine pflichtbewusste Hausfrau, die die politischen Ambitionen ihres Ehemanns unterstützt. Dabei entwickelt sie einen Faible für Fitness und beginnt damit, Workout-Videos zu erstellen und diese zu vermarkten. Dabei spielt die Serie auf witzige Weise mit dem kalifornischen Aerobics-Boom der 80er Jahre. Bei den Nutzern kam die erste Staffel ausgesprochen gut an, weswegen die Fortsetzung der schwarzen Komödie keine große Überraschung ist.

Mit iOS 15, macOS Monterey und Co.: Apple kündigt neue Funktionen zum Schutz von Kindern an

Die früher am heutigen Tag durchgesickerten Informationen zum Thema Kindersicherheit sind nun offiziell. Auf einer neuen Webseite hat Apple dabei auch Informationen zu dem vorhin thematisierten Abgleich von Fotos auf dem iPhone, iPad und Mac mit Hashwerten zur Erkennung von Kindesmissbrauch bekanntgegeben. Dieser wird allerdings nur ein Teil einer größer angelegten Offensive zum Thema Kindersicherheit sein, die zunächst ausschließlich in den USA, später aber auch in anderen Regionen, mit iOS 15, iPadOS 15 und macOS Monterey umgesetzt wird.

Mit einbezogen wird dabei auch iMessage, welches mit einer "Communication Safety" Funktion ausgestattet wird, die Kinder und ihre Eltern warnt, sobald sexuell anzügliche Fotos empfangen werden. Die Erkennung funktioniert auch in diesem Fall auf Basis von Maschinenlernen und findet komplett lokal auf dem Gerät statt. Sollte die Funktion anspringen, wird das empfangene Bild automatisch verschwommen dargestellt und eine entsprechende Meldung angezeigt. Sind die entsprechenden Schalter in der Familienfreigabe aktiviert, können sich auch Eltern über den Empfang eines solchen Bildes informieren lassen.

Ebenfalls mit iOS 15 und iPadOS 15 wird Apple die heute Nachmittag thematisierte automatische Erkennung von Bildern mit sogenanntem "Child Sexual Abuse Material" (CSAM), als Darstellungen von sexuellem Missbrauch von Kindern umsetzen. Wurden mehrere solcher Bilder in einem Account entdeckt, meldet Apple dies an das National Center for Missing and Exploited Children (NCMEC), eine Non-Profit -Organisation, die mit den Strafverfolgungsbehörden in den USA zusammenarbeitet. Dabei betont Apple, dass man auch bei der CSAM-Erkennung den Datenschutz in den Mittelpunkt stelle. Wie bereits berichtet, wird die Erkennung der Bilder auf Basis von Hashwerten aus der Datenbank der NCMEC und anderen Organisationen für den Schutz des Kindeswohls durchgeführt. Die dabei zum Einsatz kommende Technologie hört auf den Namen "NeuralHash" und vergleicht Hashwerte von Bildern auf denen Kindesmissbrauch zu sehen ist mit denen auf den Geräten. Hierzu schreibt das Unternehmen in einem neuen Whitepaper:

"The main purpose of the hash is to ensure that identical and visually similar images result in the same hash, while images that are different from one another result in different hashes,. For example, an image that has been slightly cropped, resized or converted from color to black and white is treated identical to its original, and has the same hash."

Die Bilderkennung wird wie gesagt auf dem Gerät selbst durchgeführt, bevor die Fotos auf iCloud Fotos hochgeladen werden. Wurde dabei eine Übereinstimmung festgestellt, wird das Bild entsprechend gekennzeichnet und anschließend hochgeladen. Wurde eine nicht näher benannte Anzahl von Übereinstimmungen bei einem Account festgestellt, werden diese manuell überprüft, der betroffene iCloud-Account deaktiviert und eine Meldung an das NCMEC getätigt. Zwar macht Apple zu dem Vorgang keine konkreten Angaben, versichert aber, dass man für einen "extremely high level of accuracy" sorgen und sogenannte "False-Positives" so weit es geht minimieren werde. Sämtliche Informationen hierzu lassen sich einer veröffentlichten technischen Dokumentation und der neuen Child Safety Webseite entnehmen.

Als dritte Maßnahme wird Apple Anpassungen bei Siri und der Spotlight-Suche auf all seinen Geräten vornehmen, um weiter sicherzustellen, dass sich Eltern und ihre Kinder sicher im Internet bewegen können und schnelle Hilfe in unsicheren Situationen erhalten. Beispielsweise werden entsprechende Ressourcen angeboten, wenn Nutzer Siri fragen, wie und wo sie Kindesmissbrauch melden können.

Wie bereits weiter oben erwähnt, werden sämtliche Neuerungen in diesem Herbst mit iOS 15, iPadOS 15, watchOS 8 und macOS Monterey eingeführt. Dies gilt  zunächst ausschließlich für die USA, soll jedoch schrittweise auch auf andere Regionen ausgeweitet werden.

Apple soll künftig angeblich Fotos auf dem iPhone auf Kindesmissbrauch prüfen

Puh, schwieriges Thema... Schon seit einiger Zeit ist das iPhone ja bekanntermaßen in der Lage, die lokal gespeicherten Fotos auf deren Inhalte zu analysieren und dabei beispielsweise Objekte oder auch Gesichter zu erkennen. Diese Funktion wird ab morgen offenbar weiter ausgebaut. So berichtet der Sicherheitsforscher und Professor an der Johns Hopkins University Matthew Green, dass Apple ab morgen das iPhone in die Lage versetzen wird, die auf ihm lagernden Bilder auch auf darauf möglicherweise zu sehenden Kindesmissbrauch zu überprüfen. Für die auf die iCloud-Server hochgeladenen Bilder gilt dies bereits seit einiger Zeit.

Die Überprüfung auf dem iPhone soll dadurch geschehen, dass Hashwerte von bekannten Missbrauchs-Fotos an das iPhone gesendet werden und die darauf gespeicherten Fotos damit dann abgeglichen werden. Auf den ersten Blick sicherlich ein sinnvoller und begrüßenswerter Schritt, der auf der anderen Seite allerdings auch durchaus negative Nachwirkungen haben kann.

So sind die Hashwert-Abgleiche keinesfalls eine sichere Methode, um die Bilder zu checken, so dass es durchaus wahrscheinlich ist, dass es vermehrt zu sogenannten False-Positives kommen kann, also Meldungen einer Erkennung, obwohl auf dem Foto komplett harmlose Motive zu sehen sind. Dies wiederum könnte dann zu Beschuldigungen von Personen führen, die sich eigentlich gar nichts zu schulden haben kommen lassen. Gerade beim Thema sexueller Missbrauch von Kindern ein mehr als dünnes Eis. Wie Green zu bedenken gibt, ist es zudem möglich, Bilder bewusst so zu manipulieren, dass der Erkennungs-Algorithmus Alarm schlägt. Möchte man jemandem also etwas anhängen und verfügt über die entsprechenden Möglichkeiten, wäre auch dies möglich.

Eine große Gefahr sieht der Sicherheitsexperte außerdem darin, dass das sogenannte "digital fingerprinting" von Behören und totalitären Regimen auch dazu genutzt werde könnte, um nicht nur Kinderpornografie zu entdecken, sondern auch beliebige andere Inhalte. Wird also die entsprechende Infrastruktur auf Basis der Hashwerte auf den Geräten erst einmal eingerichtet, könnte man hiermit beispielsweise auch andere Inhalte auf dem iPhone, wie beispielsweise die eigentlich Ende-zu-Ende verschlüsselten iMessage-Nachrichten mit entsprechenden Informationen abgleichen und diese somit mehr oder weniger ausspionieren. Ein Thema, welches gerade auch im Rahmen der Diskussion um die Pegasus-Spyware heiß diskutiert wurde.

Zu bedenken gilt es dabei aktuell noch, dass sich Apple offiziell zu dem Thema noch gar nicht geäußert hat, es sich momentan also nur um ein Gerücht handelt. Sollte das Thema jedoch tatsächlich umgesetzt werden, fordert Green, dass Apple die verwendeten Algorithmen offenlegt, um sie von unabhängigen Stellen auf Herz und Nieren prüfen zu lassen. Allerdings äußert Green auch Bedenken, ob Apple das Thema überhaupt öffentlich bekannt machen wird.

Amazon: Rabatt-Aktion auf verschiedene hauseigene Hardware

Zwar steht aktuell kein allgemeines Shopping-Event auf der Agenda, dies hält den Versandhändler Amazon aber nicht davon ab, auch zwischendurch mal wieder einige seiner eigenen Hardware-Produkte zum reduzierten Preis anzubieten. Diese drehen sich vor allem um den hauseigenen Sprachassistenten Alexa, stammen aber auch aus anderen Bereichen. Die Rabatte können sich teilweise wirklich sehen lassen und können auf der zugehörigen Landingpage eingesehen werden. Nachfolgend auch noch einmal die Direktlinks zu den reduzierten Produkten:

Gegen Pegasus und Co.: iMazing ab sofort mit integriertem Spyware-Scanner

Vor einigen Tagen wurde bekannt, dass sich offenbar verschiedene Behörden und Regierungen die sogenannte Pegasus-Software der israelischen Sicherheitsfirma NSO Group besorgt haben, um sie dafür einzusetzen, zahlreiche Journalisten, Aktivisten und Regierungskritiker auszuspionieren und zu verfolgen. Auch iPhones waren von der durch die Software ausgenutzte Sicherheitslücke betroffen. Apple hat sie kürzlich mit der Veröffentlichung von iOS/iPadOS 14.7.1 und watchOS 7.6.1 behoben, was aber nicht bedeutet, dass künftig nicht eine weitere Lücke gefunden werden könnte, die auch iPhones, iPads und Apple Watches wieder angreifbar macht.

Grundsätzlich muss man sich als Otto-Normal-Benutzer wohl keine größeren Gedanken über einen möglichen Angriff auf die eigenen Geräte machen. So waren vor allem Aktivisten, Journalisten und Politiker Ziel der Angriffe von autoritären und totalitären Regime.  Möchte man sein iPhone dennoch gerne mal zwischendurch auf Herz und Nieren testen, bietet sich hierfür ab sofort umso mehr die ohnehin bereits empfehlenswerte Mac- und PC-Anwendung iMazing an. In der nun verfügbaren Version 2.14 haben die Entwickler nämlich eine Erkennung von Spyware wie Pegasus auf Basis des Mobile Verification Toolkit von Amnesty International integriert, die sich auch in der kostenlosen Demoversion nutzen lässt. Vorbildlich dabei: Die Analyse des Geräts findet vollständig lokal statt, so dass keine Daten auf irgendwelche Server übertragen werden müssen. Alle Infos haben die Entwickler in einem zugehörigen Blog-Eintrag veröffentlicht.