Aktuelles Wenn Sprachassistenten zuhören, obwohl sie gar nicht sollen!

Wenn Sprachassistenten zuhören, obwohl sie gar nicht sollen!

Facebook-Themen

Faktencheck zu „Weltweiter Abriegelungsplan durchgesickert“

Angeblich soll bald weltweit alles abgeriegelt werden und COVID-21 auftauchen. Der Abriegelungsplan, ein Kopfsprung in die Welt der Verschwörungsmythen. Der folgende Artikel wird euch, liebe...

MHD auf Wasserflaschen: Kann Wasser ablaufen?

Ein Mindesthaltbarkeitsdatum (MHD) auf Lebensmitteln gibt das Datum an, bis zu dem ein Produkt bei sachgemäßer Lagerung ohne Bedenken zu konsumieren ist. So ein MHD...

13-Jährige Schülerin bricht in Bus zusammen: Nun liegt das Gutachten vor!

Staatsanwaltschaft informiert über mögliche Ursachen. Anfang September 2020 kursierten verschiedene Gerüchte zu einem Vorfall in Büchelberg. In einem Schulbus kollabierte eine 13-jährige Schülerin. Es ging...

Doch, das Robert-Koch-Institut empfiehlt das Tragen von Masken!

In einem Video-Ausschnitt gibt Lars Schaade an, das RKI würde das Tragen von Masken nicht empfehlen. Da diese Aussage nun die Menschen verunsichert, ob Masken...
-WERBUNG-

„Alexa“, „Hey Siri“, „OK Google“ – auf solche Trigger sollen Sprachassistenten reagieren. Sie springen aber auch bei vielen anderen Wörtern an.

- Werbung -

Welche Wörter Sprachassistenten versehentlich anspringen lassen, haben Forscherinnen und Forscher der Ruhr-Universität Bochum (RUB) und des Bochumer Max-Planck-Instituts (MPI) für Cybersicherheit und Schutz der Privatsphäre untersucht. Sie erstellten eine Liste von englischen, deutschen und chinesischen Begriffen, die von verschiedenen Sprachassistenten wiederholt als Aufforderung zum Zuhören fehlinterpretiert wurden.

Immer wenn die Systeme anspringen, schneiden sie eine kurze Sequenz des Gesagten mit und übermitteln die Daten an den Hersteller, teilweise ohne dass die Nutzerinnen und Nutzer das bemerken. Die mitgelieferten Audioschnipsel werden dann von Angestellten der Konzerne transkribiert und überprüft. So können Fetzen von sehr privaten Unterhaltungen bei Firmen landen.

Über die Ergebnisse der Analyse berichteten die Süddeutsche Zeitung, der NDR und die Tagesschau am 30. Juni 2020. Beispiele aus der Arbeit der Forscherinnen und Forscher sind unter unacceptable-privacy.github.io zu finden.

Für das Projekt kooperierte Lea Schönherr aus der RUB-Arbeitsgruppe Kognitive Signalverarbeitung von Prof. Dr. Dorothea Kolossa am Horst-Görtz-Institut für IT-Sicherheit (HGI) der RUB mit Dr. Maximilian Golla, früher ebenfalls am HGI, jetzt am MPI für Sicherheit und Privatsphäre, sowie Jan Wiele und Thorsten Eisenhofer vom HGI-Lehrstuhl für Systemsicherheit von Prof. Dr. Thorsten Holz.

Alle großen Hersteller im Test

Die IT-Expertinnen und -Experten testeten die Sprachassistenten von Amazon, Apple, Google, Microsoft und Deutscher Telekom sowie drei chinesische Modelle von Xiaomi, Baidu und Tencent. Sie spielten ihnen stundenlang deutsches, englisches und chinesisches Audiomaterial vor, unter anderem einige Staffeln aus den Serien „Game of Thrones“, „Modern Family“ und „Tatort“ sowie Nachrichtensendungen. Auch professionelle Audio-Datensätze, die zum Training von Sprachassistenten verwendet werden, waren dabei.

- Werbung -

Alle Sprachassistenten waren mit einer Diode versehen, die registrierte, wann die Aktivitätsanzeige des Sprachassistenten aufleuchtete, das Gerät also sichtbar in den aktiven Modus schaltete und somit ein Trigger auftrat. Außerdem registrierte das Setup, wann ein Sprachassistent Daten nach außen sendete. Immer wenn eines der Geräte in den aktiven Modus schaltete, protokollierten die Forscher, bei welcher Audiosequenz das der Fall war. Manuell werteten sie später aus, welche Begriffe den Sprachassistenten getriggert hatten.

Fehltrigger identifiziert und selbst erzeugt

Aus diesen Daten erstellte das Team eine erste Liste von über 1.000 Sequenzen, die Sprachassistenten fälschlicherweise triggern. Abhängig von der Betonung hört Alexa im Englischen beispielsweise auf die Wörter „unacceptable“ und „election“ oder Google auf „OK, cool“. Im Deutschen lässt sich Amazon beispielsweise durch „Am Sonntag“ und Siri durch den Begriff „Daiquiri“ täuschen.

Um zu verstehen, was diese Begriffe zu Fehltriggern macht, zerlegten die Forscherinnen und Forscher die Wörter in ihre kleinstmöglichen Klangeinheiten und identifizierten die Einheiten, die häufig von den Sprachassistenten verwechselt wurden. Basierend auf diesen Erkenntnissen erzeugten sie neue Triggerwörter und zeigten, dass diese die Sprachassistenten ebenfalls anspringen lassen.

„Die Geräte sind mit Absicht etwas liberal programmiert, weil sie ihre Menschen verstehen können sollen. Sie springen also eher einmal zu viel als zu wenig an“,

resümiert Dorothea Kolossa.

Wir benötigen Ihre Zustimmung um den Inhalt von YouTube laden zu können.

Mit dem Klick auf das Video werden durch den mit uns gemeinsam Verantwortlichen Youtube [Google Ireland Limited, Irland] das Video abgespielt, auf Ihrem Endgerät Skripte geladen, Cookies gespeichert und personenbezogene Daten erfasst. Damit kann Google Aktivitäten im Internet verfolgen und Werbung zielgruppengerecht ausspielen. Es erfolgt eine Datenübermittlung in die USA, diese verfügt über keinen EU-konformen Datenschutz. Weitere Informationen finden Sie hier.

PGlmcmFtZSBzcmM9Imh0dHBzOi8vd3d3LnlvdXR1YmUuY29tL2VtYmVkL0JCa1hLUGZ2eUJJIiB3aWR0aD0iNTYwIiBoZWlnaHQ9IjMxNSIgZnJhbWVib3JkZXI9IjAiIGFsbG93ZnVsbHNjcmVlbj0iYWxsb3dmdWxsc2NyZWVuIj48L2lmcmFtZT4=

Audioschnipsel werden in der Cloud analysiert

Die Wissenschaftler untersuchten genauer, wie die Hersteller Fehltrigger auswerten. Typisch ist ein zweistufiger Prozess. Zunächst analysiert das Gerät lokal, ob in der wahrgenommenen Sprache ein Triggerwort enthalten ist. Vermutet das Gerät, das Aktivierungswort gehört zu haben, fängt es an, dass derzeitige Gespräch für eine weitere Analyse mit mehr Rechenpower in die Cloud des Herstellers hochzuladen.

Identifiziert die Cloud-Analyse den Begriff als Fehltrigger, bleibt der Sprachassistent stumm, nur seine Kontrollleuchte leuchtet kurz auf. In diesem Fall können bereits mehrere Sekunden Audiomitschnitt bei den Herstellern landen, wo sie von Menschen transkribiert werden, um solch einen Fehltrigger in der Zukunft zu vermeiden.

„Aus Privacy-Sicht ist das natürlich bedenklich, weil teils sehr private Unterhaltungen bei Fremden landen können“,

sagt Thorsten Holz.

„Aus Engineering-Sicht ist das Vorgehen hingegen nachvollziehbar, denn die Systeme können nur mithilfe solcher Daten verbessert werden. Die Hersteller müssen einen Spagat zwischen Datenschutz und technischer Optimierung schaffen.“

Das könnte dich auch interessieren: Sicherheitsrisiken durch virtuelle Sprachassistenten!

Quelle: Ruhr Universität Bochum
Artikelbild: © RUB, Marquard
- Werbung -
Die Corona-Krise! Wir brauchen deine Unterstützung

Die Corona-Krise stellt uns alle vor großen Herausforderungen und bringt uns an unsere Grenzen. Jeder gibt seinen Teil dazu bei um zu Unterstützen.

Unsere Unterstützung an der Gesellschaft ist es, gegen Fakenews anzukämpfen und dies mittlerweile knapp 20 Stunden am Tag und dies 7 Tage in der Woche. Durch diese Krise haben wir zwar mehr Zugriffe auf die Webseite und unsere Nützlichkeit für NutzerInnen steigt jeden Tag aber andererseits brechen uns seit Monaten, aufgrund der Corona-Krise, Werbeeinnahmen weg. Das Resultat: Umsatzverlust und bevorstehender Abbau von Mitarbeitern.

Gegenüber anderen Medien haben wir keine “Pay-Wall” eingerichtet, denn wir möchten unsere Inhalte für alle offen halten. Wenn jeder, der unsere Faktenchecks liest, dabei hilft, diese zu finanzieren, wird es mimikama auch weiterhin geben und wir können gemeinsam gegen Fakenews vorgehen. Unterstützen Sie uns und tragen auch Sie dazu bei, die Zukunft von Mimikama zu sichern. Hier kannst Du unterstützen: via
PayPal, Steady oderPatreon

Hinweis: Die Wiedergabe einzelner Bilder oder Videosequenzen dient zur Auseinandersetzung der Sache mit dem Thema.

Aktuelle Nachrichten aus dem In- und Ausland

Dieser Inhalt wurde von EURONEWS GERMANY zur Verfügung gestellt.

In ganz Deutschland: Beherbergungsverbote für Reisende aus Risikogebieten

0
In Deutschland und in der Schweiz machen höhere Infektionszahlen Sorge. Doch was bringen Beherbergungsverbote?  Die Politik rät zu einem Corona-Urlaub in Deutschland. Doch das ist teils...

Trump-Sprecherin Kayleigh McEnany ebenfalls mit Corona infiziert

0
Die Sprecherin von US-Präsident Donald Trump, Kayleigh McEnany, ist ebenfalls mit dem Coronavirus infiziert. McEnany gab auf Twitter bekannt, ein Corona-Test sei positiv ausgefallen. Sie...

Top-Artikel

Faktencheck zu „Weltweiter Abriegelungsplan durchgesickert“

Angeblich soll bald weltweit alles abgeriegelt werden und COVID-21 auftauchen. Der Abriegelungsplan, ein Kopfsprung in die Welt der Verschwörungsmythen. Der folgende Artikel wird euch, liebe...

MHD auf Wasserflaschen: Kann Wasser ablaufen?

Ein Mindesthaltbarkeitsdatum (MHD) auf Lebensmitteln gibt das Datum an, bis zu dem ein Produkt bei sachgemäßer Lagerung ohne Bedenken zu konsumieren ist. So ein MHD...

13-Jährige Schülerin bricht in Bus zusammen: Nun liegt das Gutachten vor!

Staatsanwaltschaft informiert über mögliche Ursachen. Anfang September 2020 kursierten verschiedene Gerüchte zu einem Vorfall in Büchelberg. In einem Schulbus kollabierte eine 13-jährige Schülerin. Es ging...

Doch, das Robert-Koch-Institut empfiehlt das Tragen von Masken!

In einem Video-Ausschnitt gibt Lars Schaade an, das RKI würde das Tragen von Masken nicht empfehlen. Da diese Aussage nun die Menschen verunsichert, ob Masken...

Abzocke auf Facebook: „Ich habe einen Gehirntumor und ich möchte Ihnen 150.000 EUR hinterlassen“

Auf Facebook versuchen Betrüger wieder einmal Nutzer abzuzocken! Betrüger verteilen im Moment abermals erfundene Geschichten um Facebook-Nutzer abzuzocken. Diese Geschichten werden entweder als Statusbeitrag veröffentlicht...
-WERBUNG-
-WERBUNG-