logosticky-logologologo
  • Home
    • Archiv
  • Partner Profile
  • Neue Ausgabe PDF
  • Mediadaten
✕

Meinungsfreiheit contra Falschmeldungen

Eine Studie ermittelt, wie Menschen Dilemmas bei der Moderation von Online-Inhalten lösen. Die Moderation von Online-Inhalten ist ein moralisches Minenfeld, insbesondere dann, wenn das Grundrecht auf freie Meinungsäußerung und mit dem Anliegen kollidiert, Schäden durch Falschinformationen zu vermeiden.

Ein Forscherteam mit Beteiligung des Max-Planck-Instituts für Bildungsforschung hat untersucht, wie Menschen in den USA mit solchen moralischen Dilemmas umgehen würden. Sie fanden heraus, dass die Mehrheit der Befragten Maßnahmen ergreifen würde, um die Verbreitung von Falschinformationen zu kontrollieren. Die Ergebnisse der Studie können helfen, kohärente und transparente Regeln für die Moderation von Inhalten aufzustellen, die von der breiten Öffentlichkeit akzeptiert werden.
Die Frage der Moderation von Inhalten auf Social-Media-Plattformen rückte 2021 in den Mittelpunkt, als große Plattformen wie Facebook und Twitter die Konten des damaligen US-Präsidenten Donald Trump sperrten. Die Debatten gingen weiter, als die Plattformen mit gefährlichen Falschinformationen über Covid-19 und die Impfstoffe konfrontiert wurden und nachdem Elon Musk im Alleingang die Twitter-Richtlinie zum Umgang mit irreführenden Informationen über Covid-19 umgestoßen und zuvor gesperrte Konten wieder freigeschaltet hatte.
„Bisher waren es die Social-Media-Plattformen, die die wichtigsten Entscheidungen über die Moderation von Falschinformationen getroffen haben, was sie praktisch in die Position von Schiedsrichtern über die Meinungsfreiheit versetzt. Darüber hinaus werden Diskussionen über die Moderation von Online-Inhalten oft hitzig, aber weitgehend ohne empirische Daten geführt“, sagt die Hauptautorin der Studie, Anastasia Kozyreva, Wissenschaftliche Mitarbeiterin am Max-Planck-Institut für Bildungsforschung. „Um mit Konflikten zwischen freier Meinungsäußerung und schädlicher Falschinformation angemessen umgehen zu können, müssen wir wissen, wie Menschen mit verschiedenen Formen von moralischen Dilemmas umgehen würden, wenn sie Entscheidungen über die Moderation von Inhalten treffen sollen", ergänzt Ralph Hertwig, Direktor am Forschungsbereich Adaptive Rationalität des Max-Planck-Instituts für Bildungsforschung.

Im Rahmen eines Umfrageexperiments in den USA gaben mehr als 2500 Befragte an, ob sie Beiträge in sozialen Medien entfernen würden, die Falschinformationen über demokratische Wahlen, Impfungen, den Holocaust und den Klimawandel enthalten. Sie wurden auch gefragt, ob sie Strafmaßnahmen gegen diese Accounts ergreifen würden, indem sie eine Verwarnung oder eine vorübergehende oder unbefristete Sperrung aussprechen würd–en. Den Befragten wurden Informationen über die hypothetischen Accounts, einschließlich deren politische Ausrichtung und der Anzahl der Follower sowie die Beiträge der Accounts und die Folgen der darin enthaltenen Falschinformationen vorgelegt.

Die Mehrheit der Befragten entschied sich dafür, Maßnahmen zu ergreifen, um die Verbreitung schädlicher Falschinformationen zu verhindern. Im Durchschnitt gaben zwei Drittel der Befragten an, dass sie die fragwürdigen Beiträge löschen würden, und 78 Prozent würden Maßnahmen gegen den Account ergreifen. Dabei entschieden sich 33 Prozent für eine „Warnung“ und 45 Prozent für eine unbefristete oder zeitlich begrenzte Sperrung von Accounts, die Falschinformationen verbreiten. Nicht alle Falschinformationen wurden gleichermaßen geahndet: Die Leugnung des Klimawandels wurde am wenigsten abgestraft (58 %), während auf die Leugnung des Holocausts (71 %) und auf die Anzweifelung von Wahlen (69 %) am häufigsten reagiert wurde, dicht gefolgt von Anti-Impf-Inhalten (66 %).
„Unsere Ergebnisse zeigen, dass sogenannte Verfechter der freien Meinungsäußerung wie Elon Musk, nicht mit der öffentlichen Meinung übereinstimmen. Die Menschen erkennen im Großen und Ganzen an, dass es Grenzen für die freie Meinungsäußerung geben sollte, nämlich dann, wenn sie Schaden anrichtet, und dass die Entfernung von Inhalten oder sogar der dauerhafte Ausschluss unter extremen Umständen, wie zum Beispiel bei der Leugnung des Holocaust, angemessen sein kann“, sagt Co-Autor Stephan Lewandowsky, Lehrstuhlinhaber für Kognitionspsychologie an der Universität Bristol.
Die Studie wirft auch ein Licht auf die Faktoren, die die Entscheidungen der Menschen in dieser Frage beeinflussen. Das Thema, die Schwere der Folgen der Falschinformation und die Frage, ob es sich um einen wiederholten Verstoß handelt, hatten den stärksten Einfluss auf die Entscheidung, Beiträge zu entfernen und Accounts zu sperren. Die Merkmale des Accounts selbst – die Person hinter dem Account, ihre Parteizugehörigkeit und die Anzahl der Follower – hatten wenig bis gar keinen Einfluss auf die Entscheidungen der Befragten.
Die Befragten neigten weder dazu, Beiträge von einem Account mit einer gegensätzlichen politischen Haltung zu entfernen, noch dazu, Accounts zu sperren, die nicht ihren politischen Präferenzen entsprachen. Allerdings verfolgten Republikaner und Demokraten tendenziell unterschiedliche Ansätze, um das Dilemma zwischen dem Schutz der Meinungsfreiheit und der Entfernung potenziell schädlicher Falschinformationen zu lösen. Die Demokraten zogen es in allen vier Szenarien vor, gefährliche Falschinformationen zu verhindern, während die Republikaner es vorzogen, die freie Meinungsäußerung zu schützen, indem sie weniger Einschränkungen vornahmen.

„Wir hoffen, dass unsere Forschungsergebnisse in die Gestaltung transparenter Regeln für die Moderation von Inhalten mit schädlichen Falschinformationen einfließen. Die Präferenzen der Menschen sind zwar nicht der einzige Maßstab für wichtige Abwägungen bei der Moderation von Inhalten.
Aber man sollte nicht ignorieren, dass es bei den Menschen Unterstützung für Maßnahmen gegen Falschinformationen und die veröffentlichenden Accounts gibt. Sonst könnte das Vertrauen der Öffentlichkeit in die Richtlinien und Vorschriften zur Moderation von Inhalten untergraben werden“, sagt Mitautor Jason Reifler, Professor an der Universität Exeter. „Eine wirksame und sinnvolle Regulierung von Plattformen erfordert nicht nur klare und transparente Regeln für die Moderation von Inhalten, sondern auch eine allgemeine Akzeptanz der Regeln als legitime Beschränkungen des Grundrechts auf freie Meinungsäußerung.
Diese wichtige Studie trägt wesentlich dazu bei, die politischen Entscheidungsträger darüber zu informieren, was akzeptable nutzergenerierte Inhalte sind und was nicht“, ergänzt Mitautor Mark Leiser, Professor an der Vrije Universiteit Amsterdam.

Related posts

1. März 2023

Die neue Generation von Mikroimplantaten


Lesen Sie mehr

1. März 2023

Depression bei Frauen: Serotonin-Transporter im Gehirn erhöht!


Lesen Sie mehr

 © Bild von J. Garget

1. März 2023

Covid-19-Maßnahmen: eine Bilanz aus 132 Ländern


Lesen Sie mehr

© shutterstock

1. März 2023

Gefahr Übergewicht


Lesen Sie mehr

1. Februar 2023

Die unterschätzte Volkskrankheit


Lesen Sie mehr

29. Dezember 2022

Sind digitale Medien gefährlich für die Demokratie?


Lesen Sie mehr

29. Dezember 2022

Wie das kindliche Gehirn mühelos Grammatik lernt


Lesen Sie mehr

28. Dezember 2022

Die ungelesenen Stasi-Akten


Lesen Sie mehr

28. Dezember 2022

Bewegungsmangel bei Schulkindern gestiegen


Lesen Sie mehr

28. November 2022

In-vitro-Fleisch: 80.000 Burger aus nur einer Kuh-Zellprobe


Lesen Sie mehr

28. November 2022

„Wer ein Intensivbett benötigt, muss es auch bekommen“


Lesen Sie mehr

28. November 2022

Ein Festival der Klangkontraste


Lesen Sie mehr

25. Oktober 2022

Für die Produktion der Zukunft


Lesen Sie mehr

25. Oktober 2022

Hilfe bei Arbeitslosigkeit und Ausbeutung


Lesen Sie mehr

 Die Bauarbeiten dauern vorausichtlich bis 2026. (Foto: Stadt Münster )

28. September 2022

„Eine der modernsten Kläranlagen Deutschlands“


Lesen Sie mehr

 Beschäftigte und Unternehmen können den Bildungsscheck beantragen! Foto: © Münsterland e.V./Arne Pöhnert

28. September 2022

Finanzielle Unterstützung für berufliche Weiterbildung


Lesen Sie mehr

31. August 2022

Dringend erforderliche Kehrtwende wird eingeleitet


Lesen Sie mehr

2. August 2022

Mit Impf- und Immuntherapien den Krebs heilen


Lesen Sie mehr

4. Juli 2022

Die Luftfahrtbranche ist im Umbruch


Lesen Sie mehr

25. Mai 2022

Was die Menschheit von Mutter Natur lernen kann


Lesen Sie mehr
© 2019 dermonat Impressum | Datenschutz
Cookie-Zustimmung verwalten
Wir verwenden Cookies, um unsere Website und unseren Service zu optimieren.
Funktional Immer aktiv
Die technische Speicherung oder der Zugang ist unbedingt erforderlich für den rechtmäßigen Zweck, die Nutzung eines bestimmten Dienstes zu ermöglichen, der vom Teilnehmer oder Nutzer ausdrücklich gewünscht wird, oder für den alleinigen Zweck, die Übertragung einer Nachricht über ein elektronisches Kommunikationsnetz durchzuführen.
Vorlieben
Die technische Speicherung oder der Zugriff ist für den rechtmäßigen Zweck der Speicherung von Präferenzen erforderlich, die nicht vom Abonnenten oder Benutzer angefordert wurden.
Statistiken
Die technische Speicherung oder der Zugriff, der ausschließlich zu statistischen Zwecken erfolgt. Die technische Speicherung oder der Zugriff, der ausschließlich zu anonymen statistischen Zwecken verwendet wird. Ohne eine Vorladung, die freiwillige Zustimmung deines Internetdienstanbieters oder zusätzliche Aufzeichnungen von Dritten können die zu diesem Zweck gespeicherten oder abgerufenen Informationen allein in der Regel nicht dazu verwendet werden, dich zu identifizieren.
Marketing
Die technische Speicherung oder der Zugriff ist erforderlich, um Nutzerprofile zu erstellen, um Werbung zu versenden oder um den Nutzer auf einer Website oder über mehrere Websites hinweg zu ähnlichen Marketingzwecken zu verfolgen.
Optionen verwalten Dienste verwalten Anbieter verwalten Lese mehr über diese Zwecke
Einstellungen anzeigen
{title} {title} {title}