Das Metaverse ist das weltweit stärkste Argument für die Regulierung von Social Media

Startseite » Das Metaverse ist das weltweit stärkste Argument für die Regulierung von Social Media

Die Herausforderung, das Metaversum zu kontrollieren, verdeutlicht die Notwendigkeit für die Regierung, soziale Medien zu regulieren.

Metaverse bezieht sich auf eine immersive Virtual-Reality-Umgebung (VR), in der Benutzer, die als lebensechte Avatare erscheinen, in dreidimensionalen Räumen interagieren können, die die reale Welt nachahmen. Mark ZuckerbergMark ZuckerbergHillicon Valley – Facebook erweitert Reichweite von Reels DC AG sagt, dass Zuckerberg von Facebook aufgefordert werden sollte, Datenschutzfragen zu beantworten Hillicon Valley – Senatoren stellen Gesetzentwurf zur Online-Sicherheit von Kindern vor MEHR ist sich so sicher, dass das Metaverse irgendwann bestehende Social-Media-Plattformen in den Schatten stellen wird, dass er seinen Firmennamen von Facebook in Meta Platforms geändert hat und ist allein in diesem Jahr 10 Milliarden Dollar ausgeben um VR-Headsets, Software und Inhalte zu entwickeln.

Zusammen mit einer Vielzahl technologischer Hürden wirft das Metaversum neue Fragen zu den Regeln auf, die bestimmen, was Benutzer online sagen und tun, und wie die Regeln durchgesetzt werden. Es gibt schon Berichte über Missbrauch. Meta räumte im Dezember ein, dass sich eine Frau, die Horizon World, den ersten VR-Raum des Unternehmens, im Betatest durchführte, darüber beschwerte Avatar war befummelt worden von einem anderen Benutzer.

Wie werden Meta und andere Technologieunternehmen auf solche Vorfälle reagieren, insbesondere wenn Millionen von Menschen – vielleicht Hunderte von Millionen – zusammenkommen und gleichzeitig in einer potenziell endlosen Reihe von Metaverse-Szenarien interagieren? Die Kombination aus automatisierter Inhaltsmoderation und menschlichen Überprüfungssystemen, die von bestehenden Plattformen zur Kontrolle von Text und Bildern eingesetzt werden, wäre der Aufgabe mit ziemlicher Sicherheit nicht gewachsen.

Hier kommt die staatliche Regulierung ins Spiel.

Angespornt durch die Unfähigkeit der Branche, bestehende zweidimensionale Iterationen von Social Media selbst ausreichend zu regulieren, hat der Gesetzgeber Dutzende von Gesetzentwürfen vorgeschlagen, um die Branche zu zügeln. Die Notwendigkeit einer besseren Aufsicht ist offensichtlich: Nach den Präsidentschaftswahlen 2020 erhoben Facebook-Gruppen haltlose Anschuldigungen über manipulierte Wahlmaschinen und gefälschte Stimmzettel den Aufstand vom 6. Januar 2021 angeheizt. Laut a internationales Netzwerk von Digital-Fact-Checking-Gruppen, bietet YouTube „einen der weltweit führenden Kanäle für Online-Fehlinformationen und Desinformation“, der Hassreden gegen schutzbedürftige Gruppen verstärkt, Impfkampagnen untergräbt und Autoritäre von Brasilien bis zu den Philippinen unterstützt. Twitter favorisierte ein „mietbare Desinformationsindustriein Kenia, das Schüren des Bürgerkriegs in Äthiopien und das Verbreiten von „Fake News“ in Nigeria.

Eine Reihe von Gesetzentwürfen, die vor dem Kongress anhängig sind, bieten gültige Ideen, die Social-Media-Unternehmen dazu verpflichten würden, mehr darüber offenzulegen, wie sie Inhalte moderieren; andere Gesetze würden es einfacher machen, Plattformen durch rechtliche Schritte zur Rechenschaft zu ziehen. Leider sind die meisten Rechnungen zu bruchstückhaft, um die Arbeit zu erledigen.

In einem kürzlich veröffentlichten Artikel weißes Papierder NYU Stern Zentrum für Wirtschaft und Menschenrechte schlägt Prinzipien und Strategien vor, die einen umfassenderen Ansatz formen könnten, der die vielversprechendsten Bestimmungen der bestehenden Gesetzgebung einbezieht. Das Zentrum fordert den Kongress dringend auf, in einem ersten Schritt ein eigenes und gut finanziertes digitales Büro innerhalb der Federal Trade Commission einzurichten, das zum ersten Mal eine nachhaltige Aufsicht über Social-Media-Unternehmen ausüben würde.

Der Gesetzgeber sollte das digitale Büro der FTC ermächtigen, ein neues Mandat als Teil der Mission der Behörde durchzusetzen, Verbraucher vor „unfairem oder irreführendem“ Verhalten von Unternehmen zu schützen. Erstens sollten Plattformen prozedural angemessene Systeme zur Moderation von Inhalten unterhalten. Solche Systeme sollten die Versprechen der Plattformen in ihren Nutzungsbedingungen und Community-Standards zum Schutz der Benutzer vor schädlichen Inhalten erfüllen. Vorbehaltlich FTC-Anpassungen würde die Verfahrensangemessenheit klar artikulierte Regeln, Durchsetzungspraktiken und Mittel für Benutzerbeschwerden beinhalten.

Zweitens sollte der Kongress die FTC anweisen, neue Transparenzanforderungen durchzusetzen. Diese sollten die Offenlegung beinhalten, wie die Algorithmen Inhalte bewerten, empfehlen und entfernen, sowie Daten darüber, wie und warum bestimmte schädliche Inhalte viral werden. Um eine Verletzung der durch die erste Änderung geschützten Rechte auf freie Meinungsäußerung zu vermeiden, sollte die FTC weder inhaltliche Inhaltsrichtlinien festlegen noch sich an Entscheidungen zur Entfernung von Beiträgen oder Konten beteiligen oder sie in der Linie belassen.

Die schiere Größe von Plattformen wie Facebook, Instagram, YouTube und TikTok – Milliarden von Beiträgen von Milliarden von Benutzern – bedeutet, dass einige unerwünschte Inhalte verbreitet werden, unabhängig davon, welche Sicherheitsvorkehrungen getroffen werden. Aber mit einem Fokus auf einige ihrer inneren Abläufe und neuen Verpflichtungen zur Durchführung einer prozedural angemessenen Moderation hätten Social-Media-Unternehmen einen starken Anreiz, ihre Plattformen wachsamer zu patrouillieren.

Der Kongress und die FTC müssen jetzt mit dem Aufbau ihrer Regulierungskapazitäten beginnen, denn der Bedarf dafür wird nur wachsen, wenn das Metaversum in vollem Umfang in Kraft tritt. Meta und andere Social-Media-Unternehmen sollten verpflichtet werden, öffentlich zu erklären, wie sie VR-Versammlungen erkennen und darauf reagieren, bei denen weiße Rassisten, Antisemiten oder Islamophobe hasserfüllte Rhetorik oder Schlimmeres austauschen. Kann KI Konversationen „mithören“, die, wenn sie als Text dargestellt würden, von Facebook gelöscht würden? Würden Meta-Mitarbeiter mit dem Fallschirm in Metaverse-Räume abspringen, um zuzuhören? Eine solche Spionage würde eine offensichtliche Bedrohung für die Privatsphäre der Benutzer darstellen, aber wie sonst würde ein Unternehmen die Körpersprache und andere Kontexte interpretieren, die gefährliche Aufrufe zu extremistischen Handlungen von bloßer Übertreibung oder Satire unterscheiden?

Und was ist mit der Frau, deren Avatar in Metas Horizon World-Prototyp sexuell angegriffen wurde? der Firma angerufen die „absolut unglückliche“ Folge. Er sagte, sie hätte eine Funktion namens „Safe Zone“ verwenden sollen, die es Benutzern ermöglicht, eine Schutzblase zu aktivieren, die verhindert, dass jemand sie berührt oder mit ihnen spricht. Allgemeiner scheint es so Meta stützt sich in erster Linie auf Benutzer in frühen VR-Räumen, um Verstöße zu kennzeichnen oder die Antagonisten selbst zu blockieren.

BuzzFeed News hat kürzlich eine Erfahrung wo Journalisten einen Horizon World-Raum namens „Qniverse“ schufen und ihn mit Behauptungen schmückten, die Meta versprach, von Facebook und Instagram zu entfernen, darunter: „Impfstoffe verursachen Autismus“, „COVID ist ein Schwindel“ und QAnons Schlagwort „wohin wir gehen alle gehen. Zwei BuzzFeed-Reporter meldeten die Verstöße separat. Einer der Beschwerdeführer erhielt eine Antwort des Unternehmens, in der es hieß: „Unser qualifizierter Sicherheitsspezialist hat Ihren Bericht geprüft und festgestellt, dass die Inhalte auf Qniverse nicht gegen unsere Datenschutzrichtlinie verstoßen Wirklichkeit.“

BuzzFeed-Reporter enthüllten die Situation später der Kommunikationsabteilung von Meta, ein Weg, der gewöhnlichen Benutzern nicht zur Verfügung steht. Am nächsten Tag verschwand das Qniverse. Ein Sprecher sagte BuzzFeed, das Unternehmen habe „nach weiterer Überlegung“ gehandelt, sich aber geweigert, die Episode zu erklären oder Fragen zu Metas Plänen zu beantworten, das Metaverse allgemeiner zu beaufsichtigen.

Die Aufsicht der FTC könnte Meta und andere Unternehmen zumindest dazu zwingen, zu erklären, wie Maschinen und Menschen die heutigen Plattformen und zukünftigen VR-Bereiche sicher halten sollen – und ob diese Maßnahmen erfolgreich sind.

Paul m Haarspange ist stellvertretender Direktor der NYU Stern Zentrum für Wirtschaft und Menschenrechte und Assistenzprofessor an der NYU School of Law.