Skip to content

Craig Federighi und Apple beruhigen Bedenken gegenüber Face ID

Eines der natürlich am meisten diskutierten Themen nach dem Apple Event am vergangenen Dienstag ist natürlich die 3D-Gesichtserkennung Face ID. Und auch wenn es offenbar ein erwünschtes Verhalten war, eignete sich die kleine "Panne" bei der Präsentation nicht als vertrauensbildende Maßnahme in die neue Technologie. Apples Software-Ched Craig Federighi stand wohl auch deswegen kürzlich John Gruber zu einem Interview in seinem Podcast The Talk Show zur Verfügung. Darin verglich "Hair Force One" die Unsicherheiten in Sachen Face ID mit den Bedenken, denen sich auch zunächst Touch ID gegenüber sah, als das iPhone 5s auf den Markt kam. Auch aus diesem Grund zähle man bei Apple bereits die Tage bis die Nutzer die neue Funktion endlich in die Finger (wohl besser: vor das Gesicht) bekommen, um sich selber ein Bild im Alltagseinsatz zu machen.

Angesprochen auf die Panne während des Events gab Federighi zu, zunächst geschockt gewesen zu sein, weil die Funktion sonst immer funktionierte. Er verstehe die daraus resultierende Unsicherheit, ist sich aber zu 100% sicher, dass diese schnell verschwinden werde, wenn man Face ID erstmal ausprobiert habe. So seht die Nutzer Touch ID ins Herz geschlossen hätten, sei Face ID die deutlich bessere Technologie. Bei Apple glaube man fest, dass die Gesichtserkennung die Zukunft der biometrischen Authentifizierung sei. Allerdings sei man sich auch bewusst, dass in manchen Situationen eine Kombination aus mehreren biometrischen Merkmalen noch besser sei.

Viele der darüber hinaus angesprochenen Themen ähneln denen aus dem kürzlichen Interview mit TechCrunch. So bestätigte Federighi noch einmal, dass Face ID auch mit den meisten Sonnenbrillen funktioniere. Sollte dies bei dem eigenen Modell einmal nicht der Fall sein, könne man das "Attention Aware"-Feature in den Einstellungen deaktivieren, welche einen Augenkontakt mit Face ID erfordert um das Gerät zu entsperren. Zudem erklärte Federighi, warum man zusätzlich zu der Gesichtserkennung auch noch einen Swipe benötigt, um das iPhone X zu entsperren. Auf diese Weise könne man auch einen Blick auf die Benachrichtigungen und Mitteilungen auf dem Display werfen, ohne dadurch direkt auf dem Homescreen zu landen.

Auch Apples Pressestelle meldete sich nach den Interviews noch einmal gegenüber den Kollegen von 9to5Mac zu Wort und versicherte erneut, dass man mehrere Jahre an der Perfektion von Face ID gearbeitet habe und man dabei vor allem auch die Privatsphäre der Nutzer im Blick hatte. Die neue TrueDepth auf der Vorderseite des iPhone X und der A11 Bionic Chip sorgen für eine exrem genaue Abtastung des Gesichts. Die dabei erhobenen Daten verlassen zu keinem Zeitpunkt das Gerät und werden sicher und verschlüsselt in der Secure Enclave gespeichert. Man habe Face ID mit über einer Milliarde Fotos von Menschen aus verschiedenen Ländern, verschiedenen Kulturen, Hautfarben und Ethnen trainiert, um es sicher gegenüber Täuschungsversuchen zu machen. Weitere Informationen werde man kurz vor dem Verkaufsstart des iPhone X bekanntgeben.

Apple begann mit der Entwicklung des A11 Bionic Chips bereits vor drei Jahren

Wie immer kurz nach einem Event standen auch dieses Mal wieder hochrangige Apple-Manager verschiedenen Kollegen der US-Presse für Interviews zu Verfügung, in dem noch einige offene Fragen zu den neuen Produkten erötert wurden. Mashables Chefredakteur Lance Ulanoff hat sich dabei mit Apples Chip-Präsidenten Johny Srouji und Marketing-Chef Phil Schiller zusammengesetzt und über den neuen A11 Bionic Chip gesprochen. Ein spannendes Detail, welches dabei ans Tageslicht kam ist, dass Apple mit dessen Entwicklung bereits vor drei Jahren begonnen hat, als das iPhone 6 und iPhone 6 Plus ihren A8-Chips erhielten. Dies zeigt eindrucksvoll, wie lang die Vorlaufzeiten in der IT-Industrie sind. Vor drei Jahren haben wohl die wenigsten von uns an AI und Maschinenlernen gedacht. Dabei sei man bei Apple sehr flexibel, was das Hinzufügen von neuen Features betrifft, wie im Falle des iPhone X durch das Super Retina HD Display.

Der A11 Bionic Chip verfügt über sechs Kerne, von denen zwei für Hochleistungsaufgaben zuständig sind, die 25% schneller arbeiten als die im A10-Chip des iPhone 7 und iPhone 7 Plus. Die vier Effizienzkerne sind sogar 70% schneller als beim Vorgänger, was das iPhone X in Sachen Rechenleistung ungefähr auf das Level des 13" MacBook Pro hebt. Dank des neuen Performance Controllers ist der A11-Chip auch deutlich effizienter beim Multi-Threading, da alle sechs Kerne nun gleichzeitig angesprochen werden können.

Als weitere Neuerung enthält der A11-Chip die von Apple entwickelte "Neural Engine", die unter anderem für die Gesichtserkennung, für Face ID, die Animoji und für andere Macshinenenlern-Algorithmen zuständig ist. Dabei absolviert der darin enthaltene Dual-Core Prozessor laut Apple bis zu 600 Milliarden Berechnungen pro Sekunde.

Ebenfalls eine Neuerung betrifft die im A11 Bionic enthaltene GPU, die erstemals komplett in Cupertino entwickelt wurde und nicht vom bisherigen Zulieferer Imagination Technologies erlaube es Apple, so die beiden Manager, eine bessere Integration von allen verwendeten Komponenten zu erzielen und sämtliche Berechnungsprozesse zentral zu steuern.