Verwendest du Alexa, Siri und Co.? Dann solltest du aufpassen!

Autor: Tom Wannenmacher

Wir brauchen deine Hilfe – Unterstütze uns!
In einer Welt, die zunehmend von Fehlinformationen und Fake News überflutet wird, setzen wir bei Mimikama uns jeden Tag dafür ein, dir verlässliche und geprüfte Informationen zu bieten. Unser Engagement im Kampf gegen Desinformation bedeutet, dass wir ständig aufklären und informieren müssen, was natürlich auch Kosten verursacht.

Deine Unterstützung ist jetzt wichtiger denn je.
Wenn du den Wert unserer Arbeit erkennst und die Bedeutung einer gut informierten Gesellschaft für die Demokratie schätzt, bitten wir dich, über eine finanzielle Unterstützung nachzudenken.

Schon kleine Beiträge können einen großen Unterschied machen und helfen uns, unsere Unabhängigkeit zu bewahren und unsere Mission fortzusetzen.
So kannst du helfen!
PayPal: Für schnelle und einfache Online-Zahlungen.
Steady: für regelmäßige Unterstützung.

Die Arbeiterkammer warnt vor Sprachassistenten wie Siri, Alexa und Co
Die Arbeiterkammer warnt vor Sprachassistenten wie Siri, Alexa und Co

Die Arbeiterkammer warnt vor Sprachassistenten wie Siri, Alexa und Co

Wie sicher sind Sprachassistenten wie Siri, Alexa und Co? „Alexa, spiel ‚Summer in the City‘!“ Tippen und Klicken war gestern. Jetzt spielen Alexa, Siri und Co Musik, antworten auf Zuruf… Was auf den ersten Blick witzig ist, birgt Gefahren.

Der Inhalt im Überblick:

„Digitale Assistenten“ – eine neue Studie der AK mit dem Institut für Technikfolgen-Abschätzung (ITA) der Österreichischen Akademie der Wissenschaften (ÖAW) zeigt die Tücken auf. „Apples Siri, Amazons Alexa, Googles Assistant und Cortana von Microsoft sind oft auf dem Handy mit dabei oder lauschen in den Wohnungen mit. Die Anbieter sammeln Sprachprofile, geben beispielsweise Standortdaten weiter, die Zwecke jenseits der Diensterfüllung bleiben dank vager Datenschutzerklärungen meist im Verborgenen – das ist vielen nicht bewusst, vor allem Kindern nicht“, warnt AK Konsumentenschützerin Daniela Zimmer. „Sprachbutler sind auch anfällig für Fehlaktivierungen, ohne Aktivierungswort mitgelauschte, vertraulichste Gespräche innerhalb der eigenen vier Wände landen immer wieder bei den Anbietern, Waren werden auf Zuruf von Nichtberechtigten bestellt. Deutsche Innenminister wünschen sich sogar, dass sie künftig vor Strafgerichten ‚aussagen‘. Die Überwachungs- und Missbrauchsrisiken sind also vielfältig. Experten meinen, dass weibliche Geräte-Namen und drollige Antworten auch dazu dienen, den Wanzen-Charakter zu kaschieren.“

[mk_ad]

Co-Studienautor Jaro Krieger-Lamina vom Institut für Technikfolgen-Abschätzung (ITA) der ÖAW betont: „Derzeit wird die Qualität und Objektivität der Antworten nicht kontrolliert. Fraglich ist, ob die Assistenten unter Umständen mehr ihren Herren als den Nutzern dienen? Die Antwortauswahl und Reaktionen könnten davon abhängen, dass die Hersteller nur mit bestimmten Lieferanten kooperieren, welche Politik der Anbieter unterstützt, oder ob Dritte dafür gezahlt haben.“

„Wir möchten das Bewusstsein schärfen, dass die digitalen Sprachassistenten nicht harmlos sind“, sagt Gabriele Zgubic, Leiterin der AK Wien Konsumentenpolitik. „Die Anbieter müssen sorgfältiger mit den Daten der Konsumenten umgehen und mehr Augenmerk auf den Datenschutz legen. Konsumenten müssen klare Informationen haben, wie ihre Daten genutzt und verarbeitet werden.“

Komfortabel, aber gefährlich?

Sie heißen Alexa, Siri und Cortana, nur Google tanzt mit der schlichten Bezeichnung Google Assistant etwas aus der Reihe. „Einmal in der Wohnung aufgestellt und eingerichtet, befinden sich smarte Lautsprecher in permanenter Lauschbereitschaft“, sagt Jaro Krieger-Lamina vom Institut für Technikfolgen-Abschätzung (ITA) der Österreichischen Akademie der Wissenschaften (ÖAW). „Durch irrtümliche Aktivierung können auch privateste Gespräche als ‚Beifang‘ beim Anbieter landen. Die Gerätehersteller leben zudem von der Nutzung der erstellten Personenprofile!“

Die unheimlichen MitbewohnerInnen

27 Prozent der österreichischen Haushalte erteilen smarten Geräten bereits Befehle (Integral 3.Quartal 2017). Nach Angaben des deutschen Bundesverbands Digitale Wirtschaft sollen dabei Männer die smarten Butler öfter nutzen als Frauen (62 zu 52 Prozent). Frauen finden es komischer, mit Geräten zu sprechen als Männer (34 zu 24 Prozent) und befürchten häufiger, dass das Gerät sie falsch versteht (31 zu 26 Prozent). Männer befürchten dafür öfter, dass ihre Daten missbraucht werden und dass man sie abhören könnte (36 zu 30 Prozent). Unter den 16- bis 24-Jährigen in Deutschland sollen bereits drei von vier Sprachbefehle erteilt haben.

„Der Wettbewerb um den Zugang zu Kunden wird härter“, erklärt Krieger-Lamina. „Der Onlinehandel analysiert Klicks – Sprachassistenten und ihre Drittentwickler Tonaufzeichnungen: Gespräche nach Inhalten, Absichten und Sprachmustern.“

Skeptische Konsumenten

Die häufigsten Bedenken der Nicht-NutzerInnen sind laut der deutschen statista: Ich habe Sicherheitsbedenken, ungewollt belauscht zu werden (43 Prozent). Die sammeln zu viele Daten von mir (40 Prozent). Ich suche mir Infos lieber selbst heraus, damit ich die Qualität besser einschätzen kann (35 Prozent). Ich möchte nicht, dass meine Stimme aufgezeichnet wird (22 Prozent).

[mk_ad]

Studie: Wie steht’s um den Datenschutz?

„Sprachassistenten sind bei vielen auf dem Handy immer mit dabei oder lauschen in den Wohnungen mit. Neben dem Inhalt der Sprachaufnahmen können auch Ort und Zeit der Nutzung viel über Lebensgewohnheiten aussagen“, sagt AK Datenschützerin Daniela Zimmer.

Die Anbieter müssen die Verarbeitung von Daten transparent, unter Angabe einer genauen Speicherdauer und an klare Zwecke gebunden durchführen. „Ihre Datenschutzerklärungen sind allerdings viel zu vage formuliert“, so Zimmer. „Dabei fallen äußerst heikle Daten an. Nicht nur an den ‚Beifang‘ unautorisiert aufgezeichneter privater Gespräche ist dabei zu denken. Der britische Gesundheitsdienst setzt Alexa künftig sogar als ‚Doktor‘ ein: Alexa soll medizinische Beratung, quasi als Hausbesuchersatz, anbieten, womit Berge an sensiblen Daten anfallen“.

Manche Geräte enthalten auch Bewegungssensoren, die die Anwesenheit von Personen ohne Sprachanfrage erfassen (wie viele Personen leben in einem Haushalt, wie oft bekommen sie Besuch). Mit dem Okay des Nutzers werden Kontakte und Kalender gespeichert. Bei aktiviertem Suchverlauf werden alle Anfragen gespeichert, bei deaktiviertem kann der Sprachbutler nicht oder nur eingeschränkt genutzt werden. Regelmäßig wird es auch zur Übermittlung von Daten in Staaten außerhalb der Europäischen Union kommen.

Tipps für KonsumentInnen

  • Genau abwägen: Überlegen Sie sich, ob Sie tatsächlich einen digitalen Assistenten benötigen. Erleichtern Musik, Einkaufslisten und Wetterbericht auf Zuruf tatsächlich den Alltag, oder sind sie eher Spielerei? Möchten Sie Einschränkungen Ihrer Privatsphäre in Kauf nehmen?
  • Auf Datenschutz achten: Überwiegen für Sie die Vorteile, sollte der Umgang des Anbieters mit ihren Daten das Auswahlkriterium sein. Nutzen Sie nach dem Kauf die Einstellungen für mehr Privatsphäre. Verwenden Sie die angebotenen Löschroutinen.
  • Und es bleiben doch Spuren: Bei Siri werden die Sprachanfragen ohne unmittelbaren Personenbezug verwendet. Wer mit pseudonymer Speicherung nicht einverstanden ist, dem bleibt nur, Siri nicht zu nutzen. Bei Google Assistant kann zwar die Speicherung der Sprachanfragen und des Suchverlaufs deaktiviert werden. Die Aktivierung wird nahegelegt – viele Funktionen sind durch die Deaktivierung eingeschränkt. Bei Alexa kann die Speicherung von Sprachanfragen generell nicht unterbunden werden. Es ist allerdings möglich, alte Anfragen anzuhören und zu löschen.

Zur Studie

Die Studie in voller Länge finden Sie hier.

Artikelbild: Shutterstock / Von Interneteable
Unterstützen 🤍

FAKE NEWS BEKÄMPFEN

Unterstützen Sie Mimikama, um gemeinsam gegen Fake News vorzugehen und die Demokratie zu stärken. Helfen Sie mit, Fake News zu stoppen!

Mit Deiner Unterstützung via PayPal, Banküberweisung, Steady oder Patreon ermöglichst Du es uns, Falschmeldungen zu entlarven und klare Fakten zu präsentieren. Jeder Beitrag, groß oder klein, macht einen Unterschied. Vielen Dank für Deine Hilfe! ❤️

Mimikama-Webshop

Unser Ziel bei Mimikama ist einfach: Wir kämpfen mit Humor und Scharfsinn gegen Desinformation und Verschwörungstheorien.

Abonniere unseren WhatsApp-Kanal per Link- oder QR-Scan! Aktiviere die kleine 🔔 und erhalte eine aktuelle News-Übersicht sowie spannende Faktenchecks.

Link: Mimikamas WhatsApp-Kanal

Mimikama WhatsApp-Kanal

Hinweise: 1) Dieser Inhalt gibt den Stand der Dinge wieder, der zum Zeitpunkt der Veröffentlichung aktuell
war. Die Wiedergabe einzelner Bilder, Screenshots, Einbettungen oder Videosequenzen dient zur
Auseinandersetzung der Sache mit dem Thema.


2) Einzelne Beiträge (keine Faktenchecks) entstanden durch den Einsatz von maschineller Hilfe und
wurde vor der Publikation gewissenhaft von der Mimikama-Redaktion kontrolliert. (Begründung)


Mit deiner Hilfe unterstützt du eine der wichtigsten unabhängigen Informationsquellen zum Thema Fake News und Verbraucherschutz im deutschsprachigen Raum

INSERT_STEADY_CHECKOUT_HERE

Kämpfe mit uns für ein echtes, faktenbasiertes Internet! Besorgt über Falschmeldungen? Unterstütze Mimikama und hilf uns, Qualität und Vertrauen im digitalen Raum zu fördern. Dein Beitrag, egal in welcher Höhe, hilft uns, weiterhin für eine wahrheitsgetreue Online-Welt zu arbeiten. Unterstütze jetzt und mach einen echten Unterschied! Werde auch Du ein jetzt ein Botschafter von Mimikama

Mehr von Mimikama

Mimikama Workshops & Vorträge: Stark gegen Fake News!

Mit unseren Workshops erleben Sie ein Feuerwerk an Impulsen mit echtem Mehrwert in Medienkompetenz, lernen Fake News und deren Manipulation zu erkennen, schützen sich vor Falschmeldungen und deren Auswirkungen und fördern dabei einen informierten, kritischen und transparenten Umgang mit Informationen.