Blogheim.at Logo
Samstag, 24 Juli 2021
StartAktuellesFacebook 2019 (F8): Künstliche Intelligenz und Augmented Reality / Virtual Reality

Bitte unterstütze uns! Werde jetzt mimikamaPLUS- Abonnent und unterstütze so unser Handeln.

Facebook 2019 (F8): Künstliche Intelligenz und Augmented Reality / Virtual Reality

Facebook-Themen

Am 30.4.2019, also am 1. Tag der jährlichen Facebook-Konferenz F8, wurden Entwickler, Unternehmer und Nutzer über diverse Neuerungen auf Facebook, Instagram, WhatsApp, Messenger, Oculus und Portal informiert! Wir haben hier darüber berichtet.

Der 2. Tag (01.05.2019) stand im Zeichen der langfristigen Investitionen, die Facebook in den Bereichen Künstliche Intelligenz und Augmented Reality / Virtual Reality tätigt. In seiner Eröffnungsrede sprach Chief Technology Officer Mike Schroepfer über die KI-Tools, mit denen wir eine Reihe von Herausforderungen in unseren Produkten angehen – und warum er optimistisch auf die kommenden Entwicklungen blickt.

Tag 2 der F8 2019: Fortschritte mit Computer Vision, inklusiver KI and weitere Höhepunkte (Pressebericht von Facebook)

1. Künstliche Intelligenz

Die Investitionen in Künstliche Intelligenz (KI) haben uns dabei geholfen, viele unserer Systeme bei Facebook auszubauen. Das schließt die Verbesserung unserer Fähigkeit ein, proaktiv Inhalte zu erkennen, die gegen unsere Richtlinien verstoßen. Unser Ziel ist es, unseren Systemen zu helfen, Inhalte mit so wenig menschlicher Überprüfung wie möglich zu verstehen.

Manohar Paluri
Manohar Paluri

Wir haben viele Fortschritte bei der Verarbeitung von Sprachen gemacht. So konnten wir eine allgemein gültige, digitale Sprache entwickeln (Natural Language Processing (NLP)), die schädliche Inhalte übersetzt, damit sie in mehr Sprachen erfasst werden können. [Manohar Paluri]

Um unsere KI-gestützten Systeme dabei zu stärken, den Kontext anhand von Hintergründen in Fotos zu verstehen, verwenden wir einen neuen Ansatz zur Objekterkennung namens Panoptic FPN. Darüber hinaus haben wir branchenführende Untersuchungen zur Erkennung von Aktionen in Videos durchgeführt und die Genauigkeit der Erkennung um mehr als fünf Prozent gegenüber dem aktuellen Stand der Technik gesteigert. Als wir diese Technik für Instagram angewendet haben, konnte die KI 80% mehr schädliche Inhalte proaktiv identifizieren. Das Training gemeinsamer Modelle, die visuelle und akustische Signale kombinieren, trägt zusätzlich zur Verbesserung der Ergebnisse bei.

Technologien wie Panoptic FPN, hier zu sehen, helfen KI-getriebenen Systemen dabei, Kontexte anhand des Hintergrunds in Fotos zu verstehen
Technologien wie Panoptic FPN, hier zu sehen, helfen KI-getriebenen Systemen dabei, Kontexte anhand des Hintergrunds in Fotos zu verstehen

In der Übersetzungsarbeit kann es schwierig sein, Sprachen zu unterstützen, zu denen es nur wenig Quellenmaterial gibt. Bei diesen Sprachen kann selbstüberwachtes Lernen helfen. Diese Techniken ermöglichen es uns, Modelle zu trainieren, ohne sie mit Hilfe von Menschen erstellen zu müssen, die riesige Datensätze beschriften. Eine dieser Techniken, die sogenannte Rückübersetzung, hilft sicherzustellen, dass problematische Inhalte in mehr Sprachen erfasst werden, als wir es bisher konnten. Dies ermöglicht es uns, relevante Inhalte – einschließlich Verstößen gegen unsere Richtlinien – besser zu verstehen, ohne jeden Satz zu übersetzen.

Auch wenn KI uns dabei hilft, unangebrachte Inhalte von unserer Plattform zu entfernen und die Sicherheit der Menschen zu gewährleisten, wissen wir, dass sie auch Verzerrungen reflektieren und verstärken kann. Um dem entgegen zu wirken, sammeln wir in jedem Schritt der Produktentwicklung Beispiele für Fairness.

So wollen wir sicherstellen, dass KI die Menschen schützt und sie nicht diskriminiert: Wenn KI-Modelle mit Datensätzen trainiert werden, die Daten zu Menschen enthalten, besteht ein inhärentes Darstellungsrisiko. Wenn die Datensätze Einschränkungen, Fehler oder andere Probleme enthalten, können die resultierenden Modelle für verschiedene Personen unterschiedlich funktionieren.

Um dieses Risiko möglichst klein zu halten, haben wir einen neuen Rahmen für integrative KI entwickelt. Dieser Rahmen enthält Richtlinien, die Forschern und Programmierern helfen sollen, Datensätze zu entwerfen, die Produktleistung zu messen und neue Systeme unter dem Aspekt der Inklusion zu testen. In Bezug auf visuelle Aspekte betrifft das die Inklusion von Hautfarben, Alter und Geschlechterdarstellung und für die akustischen Aspekte: Dialekt, Alter und Geschlecht. Dieser inklusive Rahmen für KI wird inzwischen von vielen Produktteams bei Facebook eingesetzt und findet Anwendung bei der Entwicklung neuer Funktionen. Genauere Informationen zu den heutigen Ankündigungen rund um Künstliche Intelligenz gibt es im AI Blog.

2. Augmented Reality / Virtual Reality

Lade Obamehinti
Lade Obamehinti

iner der Bereiche, in dem wir das KI-Framework nutzen, ist der Bereich Augmented Reality (AR). Spark AR-Ingenieure nutzen es, um sicherzustellen, dass ihre Software qualitativ hochwertige AR-Effekte für alle liefert. So werden beispielsweise einige der Effekte durch eine Handgeste ausgelöst. Deshalb enthielten die Trainingsdaten verschiedene Hauttöne unter verschiedenen Lichtverhältnissen, um sicherzustellen, dass das System immer erkennen würde, dass eine Hand vor der Kamera war. Die Ingenieure von Oculus verwenden dieses Verfahren auch für Sprachbefehle in VR, wobei sie repräsentative Daten über Dialekte, Alter und Geschlecht hinweg verwenden.

Ebenso wie wir daran arbeiten, dass unsere Technologie die Menschen nicht ausschließt, arbeiten wir auch daran, dass sie dazu beiträgt, Menschen zusammenzubringen. Mit VR sehen wir eine Möglichkeit, wie die Menschen in Zukunft interagieren und zusammenkommen können, unabhängig von der geografischen Entfernung. Aber um dies wirklich zu erreichen, müssen sich die Menschen in VR vollständig repräsentiert fühlen. Und das bedeutet, dass wir wirklich lebensechte Avatare brauchen, mit Gesten, Gesichtsausdrücken und Stimmlagen, die der Realität nachempfunden sind.

Mit Codec Avatars haben wir gezeigt, dass es möglich ist, Gesichter realitätsgetreu in VR abzubilden. Aber echte Kommunikation erfordert den ganzen Körper. Deshalb entwickeln wir vollständig adaptive, physikalisch basierte Modelle, die einen 3D-Avatar mit Daten von einer begrenzten Anzahl von Sensoren reproduzieren. Wir verwenden einen mehrschichtigen Ansatz, der die menschliche Anatomie nachbildet und sich automatisch an das Aussehen und die einzigartige Bewegung jedes Einzelnen anpassen kann. Wir entwerfen diese Modelle von innen nach außen, das heißt wir entwickeln ein virtuelles Skelett und legen darauf dann die Muskelstruktur, die Haut und die Kleidung. Das Ergebnis sind realistische Avatare – von den Muskelbewegungen bis hin zum Faltenwurf der Kleidung. Es wird noch Zeit erfordern, bis diese Forschung in einem Produkt resultiert, aber unsere bisherigen Ergebnisse sind vielversprechend.

Ronald Mallet
Ronald Mallet

Neben AR wollen wir auch VR inklusiv und sicher für alle machen. Wir haben präventive Systeme entwickelt – wie zum Beispiel einen Verhaltenskodex für alle, die unsere Headsets verwenden oder bauen, die eine respektvolle Kultur und Interaktion fördern. Und wir haben reaktive Systeme entwickelt – einschließlich Tools zur Meldung oder Blockierung von Benutzern, die gegen Richtlinien verstoßen.

Als wir unsere eigenen VR-Apps — Spaces, Venues und Rooms — veröffentlicht haben, haben wir großen Wert auf Sicherheit gelegt. In einem Einführungsvideo lernen die Benutzer mehr über die Funktionen, sodass sie sich sicher fühlen, wenn sie mit einer großen Gruppe von Personen in VR interagieren. Zum Beispiel verhindert die Funktion Safety Bubble, dass Personen oder Objekte näher kommen, als der Anwender es möchte. Wenn ein Avatar die Safety Bubble eines anderen betritt, werden beide Avatare für einander unsichtbar. Wir haben auch Live-Moderatoren, die sicher stellen, dass alle sich angemessen verhalten und die Berichte über unangemessenes Verhalten prüfen.

Lindsay Young
Lindsay Young

Hier kann man sich den ersten Tag der F8 als Video ansehen:


Wir brauchen deine Unterstützung!

Im Gegensatz zu anderen Medien haben wir bei unseren Faktenchecks keine “Paywall” eingerichtet, denn wir möchten unsere Inhalte für alle offen halten. Wenn jeder, der unsere Faktenchecks liest, dabei hilft, diese zu finanzieren, wird es Mimikama auch weiterhin geben und wir können gemeinsam gegen Fake-News vorgehen. Unterstütze uns und trage auch du dazu bei, die Zukunft von Mimikama zu sichern. Hier kannst du unterstützen: via PayPal oder Patreon. Gerne kannst Du aber auch ein mimikamaPLUS- Abonnent werden.

Hinweis: Dieser Inhalt gibt den Stand der Dinge wieder, der zum Zeitpunkt der Veröffentlichung aktuell war. Die Wiedergabe einzelner Bilder, Screenshots, Einbettungen oder Videosequenzen dient zur Auseinandersetzung der Sache mit dem Thema.

Aktuelle Artikel