Skip to content

Apple äußert sich zu Auswertungen von Siri-Mitschnitten und kündigt Änderungen an

In den vergangenen Wochen gab es verschiedentlich Kritik an den Praktiken der Anbieter von digitalen Sprachassistenten wie Apples Siri, dem Google Assistant oder Alexa von Amazon. Sämtliche Anbieter bezahlten externe Auftragnehmer dafür, zufällig ausgewählte und anonymisierte Mitschnitte von Sprachbefehlen der Nutzer zu transkribieren, um auf diese Weise die Genauigkeit der Antworten und damit die Qualität der Sprachassistenten zu verbessern. Zwar wird diese Praxis in den Nutzungsbedingungen der Sprachassistenten erwähnt, dennoch war der öffentliche Aufschrei nach ihrer thematisierung in den Medien bei einigen Nutzern groß.

Ich persönlich halte nach wie vor an meiner bereits geäußerten Meinung zu dem Thema fest, dass mir der Aufschrei um das Thema ein wenig scheinheilig erscheint. Mit nur ein wenig gesundem Menschenverstand kommt man schnell dahinter, dass eine Weiterentwicklung und Verbesserung der Dienste nicht ohne menschliche Auswertungen geschehen kann. Sich hierüber aufzuregen ist entweder naiv oder einfach nur Empörungsfreude, zumal man die Praxis mit Zustimmung zu den Nutzungsbedingungen selbst abnickt. Als Nutzer hat man nach wie vor die Wahl: Entweder man nutzt die Dienste und akzeptiert die damit einhergehenden Rahmenbedingungen oder man lässt es eben bleiben. Komfort und Bequemlichkeit stechen dieses Argument aber anscheinend bei den meisten dann doch wieder aus.

Apple hatte dennoch als einer der ersten Anbieter auf die Kritik reagiert und sein Programm zur menschlichen Analyse der Siri-Sprachbefehle ausgesetzt. Heute nun veröffentlichte das Unternehmen eine Pressemitteilung, in der das weitere Vorgehen in Sachen "Grading", wie man den Prozess intern bezeichnet, und die Änderungen hieran erläutert wird. Dabei betont Apple einmal mehr, dass dem Unternehmen die Sicherheit der Nutzerdaten sehr am Herzen liegt und man auch Siri nach den bestmöglichen Datenschutzkriterien betreibt.

Nach der Kritik am Grading habe man sich nun noch einmal die einzelnen Prozesse angeschaut und festgestellt, dass es trotz aller Vorkehrungen noch Verbesserungspotenzial gibt. Hierfür entschuldigt sich das Unternehmen bei seinen Nutzern. Während das Grading-Programm derzeit nach wie vor ausgesetzt ist, wird es im Herbst nach der Veröffentlichung der großen Betriebssystem-Updates für iOS und den Mac wieder anlaufen, dann jedoch drei grundlegende Änderungen binhalten:

  • Erstens werden wir standardmäßig keine Audioaufzeichnungen von Siri-Interaktionen mehr speichern. Wir werden weiterhin computergenerierte Transkripte verwenden, um Siri bei der Verbesserung zu unterstützen. 
  • Zweitens können Nutzer per Opt-in selbst entscheiden, ob sie zur Verbessrung von Siri beitragen möchten, indem Siri aus den Audioproben der Anfragen lernen kann. Wir hoffen, dass viele Menschen sich dafür entscheiden werden zur Verbesserung von Siri beizutragen, mit dem Wissen, dass Apple die Privatsphäre respektiert und über starke Datenschutzkontrollen verfügt. Diejenigen, die sich für die Teilnahme entscheiden, können sich jederzeit abmelden.
  • Drittens dürfen, wenn sich Kunden per Opt-in entscheiden, ausschließlich Apple-Mitarbeiter Audioproben der Siri-Interaktionen hören. Unser Team wird daran arbeiten, jede Aufnahme, die als unbeabsichtigter Auslöser von Siri erkannt wurde, zu löschen.

Im Anschluss die deutsche Pressemitteilung im Wortlaut:

Bei Apple sind wir überzeugt, dass Datenschutz ein grundlegendes Menschenrecht ist. Wir entwickeln unsere Produkte so, dass sie die persönlichen Daten der Nutzer schützen, und wir arbeiten ständig daran, diesen Schutz zu verstärken. Das gilt auch für unsere Services. Unser Ziel mit Siri, dem intelligenten Assistenten, ist es, unseren Kunden das beste Erlebnis zu bieten und gleichzeitig die Privatsphäre besonders zu schützen.

Wir wissen, dass Kunden über die jüngsten Berichte, in denen wiedergegeben wurde das Personen im Rahmen unseres Siri-Qualitätsauswertungsprozesses, den wir Grading nennen, Siri-Audioaufnahmen angehört haben, besorgt sind. Wir haben diese Bedenken sehr ernst genommen, die durch Menschen durchgeführte Auswertung von Siri-Anfragen sofort ausgesetzt und damit begonnen eine gründliche Überprüfung unserer Praktiken und Richtlinien. Wir haben beschlossen, einige Änderungen an Siri vorzunehmen.

Wie Siri die Privatsphäre schützt

Siri wurde von Anfang an dahingehend entwickelt, die Privatsphäre der Nutzer zu schützen. Wir konzentrieren uns darauf, so viel wie möglich auf dem Gerät selbst zu erledigen und die Menge an Daten, die wir mit Siri sammeln, zu minimieren. Wenn wir Daten von Siri auf unseren Servern speichern, verwenden wir diese nicht, um ein Marketingprofil zu erstellen, und wir verkaufen diese auch niemals an Dritte. Wir verwenden Daten von Siri ausschließlich zur Verbesserung von Siri und entwickeln ständig Technologien, die die Privatsphäre bei der Nutzung von Siri noch stärker schützen.

Siri verwendet so wenig Daten wie nötig, um ein genaues Ergebnis zu liefern. Wenn man beispielsweise eine Frage zu einer Sportveranstaltung stellt, nutzt Siri den allgemeinen Standort, um geeignete Ergebnisse zu erzielen. Wenn man jedoch nach dem nächstgelegenen Lebensmittelgeschäft fragt, werden spezifischere Standortdaten verwendet.

Wenn man Siri bittet ungelesene Nachrichten vorzulesen, weist Siri das Gerät lediglich an, ungelesene Nachrichten laut zu lesen. Der Inhalt der Nachrichten wird nicht an die Server von Siri übermittelt, da dies für die Ausführung der Anfrage nicht erforderlich ist.

Siri verwendet eine zufällige Kennung — eine lange Folge an Buchstaben und Zahlen, die einem einzelnen Gerät zugeordnet sind — um Daten während der Verarbeitung zu verfolgen, anstatt diese über Apple-ID oder Telefonnummer mit der Identität zu verknüpfen — ein Prozess, der unserer Meinung nach einzigartig unter den heute eingesetzten digitalen Assistenten ist. Als weitere Sicherheitsmaßnahme wird die Verknüpfung von Geräteinformation und Zufallskennung nach sechs Monaten getrennt.

In iOS findet man Details, wie Siri auf Daten zugreift und diese dabei geschützt werden unter Einstellungen > Siri & Suchen > Über „Siri fragen“ und Datenschutz.

Wie Nutzerdaten Siri besser machen

Damit Siri personalisierte Aufgaben präziser ausführen kann, sammelt und speichert es bestimmte Informationen vom Gerät. Wenn Siri beispielsweise auf einen ungewöhnlichen Namen trifft, kann es Namen aus Kontakten verwenden, um sicherzustellen, dass es den Namen korrekt erkennt.

Siri nutzt auch Daten aus der Interaktion mit dem Anwender. Diese beinhalten sowohl die Audioaufnahme als auch eine computergenerierte Transkription der Anfrage. Manchmal verwendet Apple die Audioaufnahme einer Anfrage sowie das Transkript in einem maschinellen Lernprozess, um Siri bei der Verbesserung zu "trainieren".

Bevor wir das Grading aussetzten, haben wir eine geringe Anzahl an Stichproben von Audiodaten aus Siri-Anfragen — weniger als 0,2 Prozent — und zugehörige computergenerierte Transkripte verwendet, um zu prüfen, wie gut Siri reagiert hat und um die Zuverlässigkeit zu verbessern. Zum Beispiel: Wollte der Nutzer mit Siri sprechen? Hat Siri die Anfrage richtig verstanden? Und hat Siri korrekt auf die Anfrage reagiert?

Änderungen, die wir vornehmen

Als Ergebnis unserer Überprüfung stellen wir fest, dass wir unseren hohen Maßstäben nicht vollständig gerecht geworden sind, und dafür möchten wir uns entschuldigen. Wie bereits mitgeteilt, haben wir das Siri-Grading-Programm gestoppt. Wir planen, diese Arbeit später im Herbst wieder aufzunehmen, sobald Software-Updates für unsere Nutzer freigegeben werden — aber erst nach folgenden Änderungen:

  • Erstens werden wir standardmäßig keine Audioaufzeichnungen von Siri-Interaktionen mehr speichern. Wir werden weiterhin computergenerierte Transkripte verwenden, um Siri bei der Verbesserung zu unterstützen. 
  • Zweitens können Nutzer per Opt-in selbst entscheiden, ob sie zur Verbessrung von Siri beitragen möchten, indem Siri aus den Audioproben der Anfragen lernen kann. Wir hoffen, dass viele Menschen sich dafür entscheiden werden zur Verbesserung von Siri beizutragen, mit dem Wissen, dass Apple die Privatsphäre respektiert und über starke Datenschutzkontrollen verfügt. Diejenigen, die sich für die Teilnahme entscheiden, können sich jederzeit abmelden.
  • Drittens dürfen, wenn sich Kunden per Opt-in entscheiden, ausschließlich Apple-Mitarbeiter Audioproben der Siri-Interaktionen hören. Unser Team wird daran arbeiten, jede Aufnahme, die als unbeabsichtigter Auslöser von Siri erkannt wurde, zu löschen.

Apple verpflichtet sich, den Kunden in den Mittelpunkt unseres Handelns zu stellen, was auch den Schutz seiner Privatsphäre einschließt. Wir haben Siri entwickelt, um zu helfen, Dinge schneller und einfacher zu erledigen, ohne das Recht auf Privatsphäre zu beeinträchtigen. Wir sind unseren Anwendern sehr dankbar mit welcher Leidenschaft sie Siri nutzen und, dass sie uns dazu bringen, uns ständig zu verbessern.

Für weitere Informationen: Siri Datenschutz und Grading

Trackbacks

Keine Trackbacks

Kommentare

Ansicht der Kommentare: Linear | Verschachtelt

udo am :

Ich nutze Siri zum diktieren f\374r Nachrichten im privaten Umfeld, im Arbeitsumfeld nicht da manchmal sehr seltsames verstanden wird.

Als Besitzer eines HomePod ist mir bewusst das Siri immer zuh\366rt aber ich vertraue Apple an der Stelle, Google nicht da die z. B. ihr Geld mit Werbung verdienen.

Sascha am :

Siri h\366rt nur zu, wenn die Zauberworte Hey Siri genannt werden. Daf\374r wird extra der Coprozessor verbaut.

udo am :

In der Theorie denn mehr als einmal sagt der HomePod pl\366tzlich \u201eHmmm Aha\u201c ohne das jemand die Zauberworte sagt

Nebenbei muss Siri immer zuh\366ren um die Worte zu erkennen.

Ano am :

Ich finde eigentlich nur interessant das \u201ejeder\u201c die Sprachaufzeichnungen h\366ren kann - nur nicht der von dem sie erzeugt wurde... mich w\374rde schon einmal interessieren wie sich meine aufgezeichneten Daten anh\366ren und was darin enthalten ist

Marko am :

Bei Alexa kannst Du es Dir anschauen, anh\366ren und l\366schen.

Ano am :

Das finde ich gut. Danke f\374r die Info.

SOE am :

Ich habe ja schon letzte mal dargelegt, wieso ich deine Sichtweise nicht nachvollziehen kann, Flo. Ich versuche es jetzt mal anders, indem ich frage, wofür sich ? eigentlich entschuldigt?

"Als Ergebnis unserer Überprüfung stellen wir fest, dass wir unseren hohen Maßstäben nicht vollständig gerecht geworden sind, und dafür möchten wir uns entschuldigen."

Die könnten doch eigentlich - wenn sie dir zustimmen würden - so wie Google und Amazon reagieren und sagen: "Tja, wenn ihr zu faul seid, die Nutzungsbedingungen mithilfe eines Anwalts zu konsultieren und auch noch so doof seid, unseren Versprechungen von großartiger KI zu glauben, dann ist das eure Schuld. Fragt Flo, ihr seid einfach scheinheilig."

Tun sie aber nicht. ? entschuldigt sich dafür, dass sie die menschliche Auswertung derart versteckt haben, anstatt zuzugeben, dass es ohne nicht geht.

Und ich warte auf den nächsten Artikel, in dem Du die Vorzüge von KI beschreibst und bin gespannt, ob dann mal (wenigstens einmal) von Dir Zweifel an den Beschreibungen geäußert werden und Du auf den sehr wahrscheinlichen Einsatz menschlicher Helfer hinweis..

udo am :

Apple will/wird die Zustimmung seiner Nutzer bald sehr viel deutlicher einholen. Dort kann man dann zustimmen oder ablehnen.

Quax am :

Komisch SOE, bei dir klingt es immer so, als w\374rden auch Menschen die Siri Anfragen bearbeiten, weil die KI das nicht ohne Menschen hinbekommt. Das ist doch aber nicht der Fall oder?

Ich habe verstanden, dass - im Nachhinein- \374berpr\374ft wird, wo Siri gut gearbeitet hat und wo nicht.
Das man dadurch Schwachstellen in der der KI Programmierung findet und behebt, bzw. die Algorithmen optimiert.

Meiner Meinung nach, ist das etwas Anderes, als \u201eKI schafft es nicht ohne menschliche Hilfe\u201c.

Kommentar schreiben

Die angegebene E-Mail-Adresse wird nicht dargestellt, sondern nur für eventuelle Benachrichtigungen verwendet.
Umschließende Sterne heben ein Wort hervor (*wort*), per _wort_ kann ein Wort unterstrichen werden.
Formular-Optionen