Faktenchecks zu Covid-bezogenen Social-Media-Beiträgen funktionieren nicht. Es gibt einen besseren Weg

Startseite » Faktenchecks zu Covid-bezogenen Social-Media-Beiträgen funktionieren nicht. Es gibt einen besseren Weg

JRechte und Linke sind sich vielleicht nicht einig darüber, was Desinformation ausmacht, aber beide würden gerne weniger davon in den sozialen Medien sehen. Und während die Welt vor dem dritten Jahr der Covid-19-Pandemie steht, bleibt die Bedrohung, die medizinische Fehlinformationen für die öffentliche Gesundheit darstellen, real. Unternehmen wie Twitter und Facebook haben ein Interesse daran, ihre Plattformen zu bereinigen – und sich nicht auf Zensur oder Faktenprüfung zu verlassen.

Zensur kann Misstrauen hervorrufen, wenn Social-Media-Unternehmen ohne Erklärung Beiträge entfernen oder Konten löschen. Es kann sogar das Profil derjenigen schärfen, die „abgesagt“ wurden.

Und Faktenchecks sind keine gute Lösung für komplexe wissenschaftliche Konzepte. Dies liegt daran, dass Wissenschaft keine Sammlung unveränderlicher Fakten ist, sondern ein Untersuchungssystem, das vorläufige Theorien auf der Grundlage unvollkommener Daten erstellt.

Ein kürzlich erschienener Beitrag auf Politifact veranschaulicht das Problem. Der Vorwurf, um den es geht: ein auf Facebook kursierendes Meme, dass sich Viren entwickeln, um weniger virulent zu werden. Politifact hielt es für falsch, aber der Virologe David Sanders von der Purdue University ist anderer Meinung. „Ich würde sagen, es stimmt, dass Viren dazu neigen, sich so zu entwickeln, dass sie weniger schädlich für ihren Wirt sind“, sagte er mir, obwohl es ein Prozess ist, der manchmal Jahrzehnte – sogar Jahrhunderte – dauern kann, von dem Moment an, in dem ein neues Virus vom Tier zum menschlichen Wirt überspringt . Sanders sagte, Politifact verwechsele Virulenz mit anderen Dingen, wie zum Beispiel Medikamentenresistenz. Wenn eine komplexe Frage immer noch Gegenstand wissenschaftlicher Unsicherheit und Debatte ist, funktioniert es nicht sehr gut, sie „wahr“ oder „falsch“ zu nennen.

Eine weitere Einschränkung des Faktenchecks: Auf Facebook und Twitter kursieren so viele fragwürdige Inhalte, dass menschliche Faktenchecker nur auf einen winzigen Bruchteil zugreifen können. Verbraucher können fälschlicherweise davon ausgehen, dass die verbleibenden Informationen überprüft wurden und zuverlässig sind.

„Es ist kein Mittel, um die Wahrheit zu suchen – es dient der Unterhaltung“, sagt Gordon Pennycook von der University of Regina in Kanada.

Aber er ist überzeugt, dass Facebook und Twitter weniger irreführend gemacht werden können, indem man sich die analytische Kraft des menschlichen Gehirns zunutze macht.

Eine Möglichkeit besteht darin, sich das als „Weisheit der Massen“ bekannte Phänomen zunutze zu machen. Wenn Sie genügend unabhängigen Quellen eine schwierige Frage stellen – wie tief ist der Pazifische Ozean an seiner tiefsten Stelle – kommen die Menschen auf die richtige Antwort zusammen. Aber Social Media führt unseren Crowdfinding-Kompass in die Irre.

Crowdsourcing funktioniert nur, wenn alle selbstständig denken. In sozialen Medien erhalten Benutzer Hinweise, die zu Mobbing und Horten führen, und gefälschte Konten oder automatisierte „Bots“ können die Illusion erwecken, dass eine große Menschenmenge von einer Nachricht beeindruckt oder empört ist.

„Das ist es nicht unbedingt [users] Machen Sie sich keine Sorgen um die Genauigkeit. Aber stattdessen lenkt sie der Kontext der sozialen Medien ab und sie vergessen darüber nachzudenken, ob es richtig ist oder nicht, bevor sie sich entscheiden, es zu teilen“, sagte Forschungspartner David Rand, Wissenschaftsprofessor für Management und Kognitionswissenschaft am MIT.


Lesen Sie auch: Das virale Video, in dem die Polizei „Jayant Chaudhary zindabad“ singt, stammt aus Rampur, nicht aus Meerut


Rand gibt zu, dass er selbst in diese Falle getappt ist, indem er eine erfundene Leckerei teilte, die Ted Cruz zugeschrieben wird – eine Aussage, dass er an den Klimawandel glauben würde, wenn Texas zufriert. „Es war, als es all diese Schneestürme in Texas gab. Und ich dachte: ‚Oh mein Gott, das ist so gut.‘ »

Was Rand und Pennycook in einer kürzlich in der Zeitschrift Nature veröffentlichten Studie herausfanden, ist, dass Menschen die Genauigkeit ihres Teilens verbesserten, wenn sie zum ersten Mal gebeten wurden, die Genauigkeit eines Titels zu bewerten. Die Idee war, dass es den Fokus der Leute auf die Genauigkeit verlagern würde, was die Leute ihrer Meinung nach für wichtig halten, selbst wenn sie Dinge aufgrund ihrer Popularität teilen.

Rand und Pennycook stellten fest, dass das Kombinieren von genügend Social-Media-Nutzern zum Bewerten der Nachrichten einen Weisheit-der-Massen-Effekt erzeugte, und das System gab Antworten, die sowohl mehreren Faktenprüfern als auch Faktenprüfern entsprachen.

„Ungefähr 10 oder 15 Laien sind ungefähr ein Faktenprüfer“, sagte Pennycook.

Facebook und Twitter könnten Crowdsourcing nutzen, um die Geschichten zu erheben, die am wahrscheinlichsten wahr sind. „Sie können es verwenden, um Ihre Einstufung an die tatsächliche Genauigkeit anzupassen“, sagte Pennycook. „In gewisser Weise nimmt man es anderen aus den Händen und gibt es den Menschen zurück.“

Stattdessen sind Algorithmen auf Plattformen wie Twitter, YouTube, Instagram und Facebook so strukturiert, dass sie das Lernen unterdrücken und die Menschen mit einer Diät aus informativem Junk Food füttern, die bestehende Überzeugungen und Vorurteile verstärkt, so eine Reihe von Studien, Modellen und Experimenten unter der Leitung von Professor Filippo Menczer an der Uni. Indiana University Center für komplexe Netzwerke und Systemforschung.

„Was wir in den sozialen Medien sehen, wird stark von unseren eigenen, bereits bestehenden Meinungen beeinflusst.“ Er erzählte mir in meinem Podcast von medizinischen Fehlinformationen. Und das ist einer der Gründe, warum scheinbar unpolitische medizinische Themen politisiert werden. „Politische Stellen haben ein Interesse daran, das zu nutzen, worauf die Menschen achten – zum Beispiel eine Gesundheitskrise –, um Menschen zu manipulieren.“

Der Mythos „Die Menschen werden dümmer“ wurde sowohl von der politischen Rechten als auch von der Linken angenommen. Wir werden nicht dümmer. Wir alle kämpfen darum, zu verstehen, was in einer komplexen und zersplitterten Welt passiert. Zensur und sogar Faktenchecks in den sozialen Medien werden dieses Problem nicht lösen. Zu diesem Zweck können Plattformen das System modifizieren und den Benutzern mehr Macht über das geben, was sie sehen. – Bloomberg


Lesen Sie auch: Facebook und Instagram blockieren die Handles des in Kaschmir stationierten Chinar Corps der indischen Armee