logosticky-logologologo
  • Home
    • Archiv
  • Partner Profile
  • Neue Ausgabe PDF
  • Mediadaten
✕

Meinungsfreiheit contra Falschmeldungen

Eine Studie ermittelt, wie Menschen Dilemmas bei der Moderation von Online-Inhalten lösen. Die Moderation von Online-Inhalten ist ein moralisches Minenfeld, insbesondere dann, wenn das Grundrecht auf freie Meinungsäußerung und mit dem Anliegen kollidiert, Schäden durch Falschinformationen zu vermeiden.

Ein Forscherteam mit Beteiligung des Max-Planck-Instituts für Bildungsforschung hat untersucht, wie Menschen in den USA mit solchen moralischen Dilemmas umgehen würden. Sie fanden heraus, dass die Mehrheit der Befragten Maßnahmen ergreifen würde, um die Verbreitung von Falschinformationen zu kontrollieren. Die Ergebnisse der Studie können helfen, kohärente und transparente Regeln für die Moderation von Inhalten aufzustellen, die von der breiten Öffentlichkeit akzeptiert werden.
Die Frage der Moderation von Inhalten auf Social-Media-Plattformen rückte 2021 in den Mittelpunkt, als große Plattformen wie Facebook und Twitter die Konten des damaligen US-Präsidenten Donald Trump sperrten. Die Debatten gingen weiter, als die Plattformen mit gefährlichen Falschinformationen über Covid-19 und die Impfstoffe konfrontiert wurden und nachdem Elon Musk im Alleingang die Twitter-Richtlinie zum Umgang mit irreführenden Informationen über Covid-19 umgestoßen und zuvor gesperrte Konten wieder freigeschaltet hatte.
„Bisher waren es die Social-Media-Plattformen, die die wichtigsten Entscheidungen über die Moderation von Falschinformationen getroffen haben, was sie praktisch in die Position von Schiedsrichtern über die Meinungsfreiheit versetzt. Darüber hinaus werden Diskussionen über die Moderation von Online-Inhalten oft hitzig, aber weitgehend ohne empirische Daten geführt“, sagt die Hauptautorin der Studie, Anastasia Kozyreva, Wissenschaftliche Mitarbeiterin am Max-Planck-Institut für Bildungsforschung. „Um mit Konflikten zwischen freier Meinungsäußerung und schädlicher Falschinformation angemessen umgehen zu können, müssen wir wissen, wie Menschen mit verschiedenen Formen von moralischen Dilemmas umgehen würden, wenn sie Entscheidungen über die Moderation von Inhalten treffen sollen", ergänzt Ralph Hertwig, Direktor am Forschungsbereich Adaptive Rationalität des Max-Planck-Instituts für Bildungsforschung.

Im Rahmen eines Umfrageexperiments in den USA gaben mehr als 2500 Befragte an, ob sie Beiträge in sozialen Medien entfernen würden, die Falschinformationen über demokratische Wahlen, Impfungen, den Holocaust und den Klimawandel enthalten. Sie wurden auch gefragt, ob sie Strafmaßnahmen gegen diese Accounts ergreifen würden, indem sie eine Verwarnung oder eine vorübergehende oder unbefristete Sperrung aussprechen würd–en. Den Befragten wurden Informationen über die hypothetischen Accounts, einschließlich deren politische Ausrichtung und der Anzahl der Follower sowie die Beiträge der Accounts und die Folgen der darin enthaltenen Falschinformationen vorgelegt.

Die Mehrheit der Befragten entschied sich dafür, Maßnahmen zu ergreifen, um die Verbreitung schädlicher Falschinformationen zu verhindern. Im Durchschnitt gaben zwei Drittel der Befragten an, dass sie die fragwürdigen Beiträge löschen würden, und 78 Prozent würden Maßnahmen gegen den Account ergreifen. Dabei entschieden sich 33 Prozent für eine „Warnung“ und 45 Prozent für eine unbefristete oder zeitlich begrenzte Sperrung von Accounts, die Falschinformationen verbreiten. Nicht alle Falschinformationen wurden gleichermaßen geahndet: Die Leugnung des Klimawandels wurde am wenigsten abgestraft (58 %), während auf die Leugnung des Holocausts (71 %) und auf die Anzweifelung von Wahlen (69 %) am häufigsten reagiert wurde, dicht gefolgt von Anti-Impf-Inhalten (66 %).
„Unsere Ergebnisse zeigen, dass sogenannte Verfechter der freien Meinungsäußerung wie Elon Musk, nicht mit der öffentlichen Meinung übereinstimmen. Die Menschen erkennen im Großen und Ganzen an, dass es Grenzen für die freie Meinungsäußerung geben sollte, nämlich dann, wenn sie Schaden anrichtet, und dass die Entfernung von Inhalten oder sogar der dauerhafte Ausschluss unter extremen Umständen, wie zum Beispiel bei der Leugnung des Holocaust, angemessen sein kann“, sagt Co-Autor Stephan Lewandowsky, Lehrstuhlinhaber für Kognitionspsychologie an der Universität Bristol.
Die Studie wirft auch ein Licht auf die Faktoren, die die Entscheidungen der Menschen in dieser Frage beeinflussen. Das Thema, die Schwere der Folgen der Falschinformation und die Frage, ob es sich um einen wiederholten Verstoß handelt, hatten den stärksten Einfluss auf die Entscheidung, Beiträge zu entfernen und Accounts zu sperren. Die Merkmale des Accounts selbst – die Person hinter dem Account, ihre Parteizugehörigkeit und die Anzahl der Follower – hatten wenig bis gar keinen Einfluss auf die Entscheidungen der Befragten.
Die Befragten neigten weder dazu, Beiträge von einem Account mit einer gegensätzlichen politischen Haltung zu entfernen, noch dazu, Accounts zu sperren, die nicht ihren politischen Präferenzen entsprachen. Allerdings verfolgten Republikaner und Demokraten tendenziell unterschiedliche Ansätze, um das Dilemma zwischen dem Schutz der Meinungsfreiheit und der Entfernung potenziell schädlicher Falschinformationen zu lösen. Die Demokraten zogen es in allen vier Szenarien vor, gefährliche Falschinformationen zu verhindern, während die Republikaner es vorzogen, die freie Meinungsäußerung zu schützen, indem sie weniger Einschränkungen vornahmen.

„Wir hoffen, dass unsere Forschungsergebnisse in die Gestaltung transparenter Regeln für die Moderation von Inhalten mit schädlichen Falschinformationen einfließen. Die Präferenzen der Menschen sind zwar nicht der einzige Maßstab für wichtige Abwägungen bei der Moderation von Inhalten.
Aber man sollte nicht ignorieren, dass es bei den Menschen Unterstützung für Maßnahmen gegen Falschinformationen und die veröffentlichenden Accounts gibt. Sonst könnte das Vertrauen der Öffentlichkeit in die Richtlinien und Vorschriften zur Moderation von Inhalten untergraben werden“, sagt Mitautor Jason Reifler, Professor an der Universität Exeter. „Eine wirksame und sinnvolle Regulierung von Plattformen erfordert nicht nur klare und transparente Regeln für die Moderation von Inhalten, sondern auch eine allgemeine Akzeptanz der Regeln als legitime Beschränkungen des Grundrechts auf freie Meinungsäußerung.
Diese wichtige Studie trägt wesentlich dazu bei, die politischen Entscheidungsträger darüber zu informieren, was akzeptable nutzergenerierte Inhalte sind und was nicht“, ergänzt Mitautor Mark Leiser, Professor an der Vrije Universiteit Amsterdam.

Related posts

6. Mai 2025

Die neuen Gesetze und Verordnungen:


Lesen Sie mehr

1. April 2025

Die Strahlkraft der 1.und 2. Fussball-Bundesliga


Lesen Sie mehr

4. März 2025

Europas Sicherheit vor Putin ohne die USA


Lesen Sie mehr

4. Februar 2025

Was die Bürger wirklich bewegt


Lesen Sie mehr

27. Dezember 2024

Donald Trumps erneute Präsidentschaft


Lesen Sie mehr

3. Dezember 2024

Darauf setzen Verbraucher beim Weihnachtseinkauf


Lesen Sie mehr

5. November 2024

Deutsche Unternehmen stehen hinter Energiewend


Lesen Sie mehr

5. November 2024

Münster auf Platz 4 der attraktivsten Innenstädte Deutschlands


Lesen Sie mehr

1. Oktober 2024

Fussball: Verbindliche Garantien für Menschenrechte von WM-Bewerbern einfordern


Lesen Sie mehr

1. Oktober 2024

Fifa will extreme Armut weltweit bekämpfen


Lesen Sie mehr

26. September 2024

Freiberufliche Pflegefachkräfte: Die Lösung für den Pflegenotstand?


Lesen Sie mehr

3. September 2024

Absturz-Spirale beim Wohnungsneubau jetzt stoppen


Lesen Sie mehr

3. September 2024

Wohnungsbauunternehmen gehen die Aufträge aus


Lesen Sie mehr

30. Juli 2024

Was kostet der Klimawandel?


Lesen Sie mehr

30. Juli 2024

Wenn Donald Trump erneut US-Präsident werden sollte


Lesen Sie mehr

2. Juli 2024

Zukunft: Die 14- bis 17-Jährigen sind besorgter denn je


Lesen Sie mehr

4. Juni 2024

Fußball – Europameisterschaft im eigenen Land


Lesen Sie mehr

30. April 2024

Auf dem Weg zur grünsten Industrieregion der Welt


Lesen Sie mehr

2. April 2024

Gesund und fit ins Frühjahr starten


Lesen Sie mehr

28. Februar 2024

Cannabis Sünde sein?


Lesen Sie mehr
© 2019 dermonat Impressum | Datenschutz
Cookie-Zustimmung verwalten
Wir verwenden Cookies, um unsere Website und unseren Service zu optimieren.
Funktional Immer aktiv
Die technische Speicherung oder der Zugang ist unbedingt erforderlich für den rechtmäßigen Zweck, die Nutzung eines bestimmten Dienstes zu ermöglichen, der vom Teilnehmer oder Nutzer ausdrücklich gewünscht wird, oder für den alleinigen Zweck, die Übertragung einer Nachricht über ein elektronisches Kommunikationsnetz durchzuführen.
Vorlieben
Die technische Speicherung oder der Zugriff ist für den rechtmäßigen Zweck der Speicherung von Präferenzen erforderlich, die nicht vom Abonnenten oder Benutzer angefordert wurden.
Statistiken
Die technische Speicherung oder der Zugriff, der ausschließlich zu statistischen Zwecken erfolgt. Die technische Speicherung oder der Zugriff, der ausschließlich zu anonymen statistischen Zwecken verwendet wird. Ohne eine Vorladung, die freiwillige Zustimmung deines Internetdienstanbieters oder zusätzliche Aufzeichnungen von Dritten können die zu diesem Zweck gespeicherten oder abgerufenen Informationen allein in der Regel nicht dazu verwendet werden, dich zu identifizieren.
Marketing
Die technische Speicherung oder der Zugriff ist erforderlich, um Nutzerprofile zu erstellen, um Werbung zu versenden oder um den Nutzer auf einer Website oder über mehrere Websites hinweg zu ähnlichen Marketingzwecken zu verfolgen.
Optionen verwalten Dienste verwalten Verwalten von {vendor_count}-Lieferanten Lese mehr über diese Zwecke
Einstellungen anzeigen
{title} {title} {title}