Leben in der Filterblase:

Ein toter Winkel, der keinen Widerspruch mehr erlaubt

Seitdem es das Internet via Mobiltelefon im Taschenformat gibt, steigen die Zahlen der Nutzer besonders zunehmend an. Zweidrittel der Deutschen gehen per Smartphone ins Internet.

84 Prozent aller Bürger sind täglich mehrere Stunden im Netz. Jederzeit Zugang zu allen Informationen gilt als zeitgemäß, chic und up to date, so glauben wir jedenfalls auf den ersten Blick: Jedoch ist dies nur die halbe Wahrheit.
Nehmen wir das Beispiel eines 42-jährigen Mannes. Wir nennen ihn einfach mal Klaus. Er tauscht sich online viel mit Freunden und Bekannten auf Facebook und Twitter aus. Jedoch in letzter Zeit häufen sich in Klaus Netzwerk Nachrichten von vernetzten Menschen, die sich unsicher fühlen und demzufolge auch entsprechende Themen, Berichte und Links teilen. Er liest somit zunehmend Berichte, die von Straftaten ausländischer Zuwanderer und von Politikern, die angeblich daran Schuld haben sollen, handeln. Seine Chronik ist voll von solchen erschreckenden und zudem auch Angst machenden Nachrichten. Klaus Freunde scheinen sich berechtigt Sorgen um die Sicherheit im Inland zu machen. Und nun macht sich auch Klaus selbst immer mehr ernsthafte Gedanken. Es scheint, als hätten alle in seinem Netzwerk die gleichen Sorgen und Ängste.

 



Ist wirklich etwas dran an diesen besorgniserregenden Nachrichten und Berichten oder wird Klaus vielleicht ein falsches Bild vermittelt, wie es auch bei den sogenannten „Fake-News“ der Fall ist ? Wieso häufen sich diese negativen Posts in Klaus Chronik? Soziale Medien, wie z.B. Facebook nutzen sogenannte Algorithmen, die Nachrichten, Berichte und Informationen filtern und nach bestimmten Interessen sortieren.
Welches Bild Klaus letztendlich in seinem Netzwerk präsentiert wird und nach welchen Kriterien dies geschieht, entscheidet jedoch die kompliziert programmierte Software hinter den Netzwerken. Ein Freund postet das Video eines Überfalles ausländischer Jugendlicher. Der Algorithmus prüft im Hintergrund des Programms, wie oft sich Klaus und sein Freund schreiben – fast täglich. Das brisante Video wurde bereits oft geteilt. Es wird von dem Programm, welches das soziale Netzwerk steuert als besonders populär eingestuft. Jetzt wird geprüft, was Klaus sonst für Vorlieben hat und was er selbst mit einem “like“ versieht oder was ihm gefällt.  Klaus interessiert sich für Sicherheit, Kriminalität und Politik. Das Programm erkennt: Das Video passt zu Klaus und findet sich somit auf seiner Chronik wieder. Eine Freundin teilt Bilder von einer harmonischen Feier von Deutschen und Portugiesen in einem Restaurant . Zu dieser Freundin hat Klaus nur selten Kontakt und der Post wird kaum geteilt und zudem passt er auch nicht zu Klaus sonstigen Interessen. Der harmonische, fröhliche Post kommt nicht durch. Klaus bekommt ihn erst gar nicht zu sehen. So entsteht eine sogenannte Filterblase. Sozusagen eine „Echo-Kammer“ mit einseitigen Informationen. Viele Menschen leben zumindest virtuell in einer solchen Blase und glauben auch, dass all`diese Informationen der Wahrheit entsprechen. Dies ist der Nährboden für Falschmeldungen im Netz. Ein weiteres Beispiel: München am 22. Juli 2016. Um 17.50 schießt bei Mc Donald`s im Olympia Einkaufszentrum ein Unbekannter wahrlos um sich. Fünf Menschen werden dabei von dem Täter erschossen. Der Mann verlässt das Schnellrestaurant und erschießt auf offener Straße vier weitere Passanten. Es folgen Stunden der wild wuchernden Gerüchte und der allgemeinen aber auch berechtigten Verunsicherung. Mal ist im Netz von mehreren Tatorten, mal von mehreren Tätern die Rede. Auf Twitter und Facebook tauschen sich Tausende über Gesehenes, Gehörtes und Vermutetes aus.  Um den „Hashtag“ München hatte sich eine Öffentlichkeit, eine sogenannte „Ad hoc – Öffentlichkeit“ direkt gebildet, die sich sehr schnell in zwei „Cluster“ (Schwärme) aufgespaltet hatten. In einen größeren Schwarm, in dem auch die klassischen Medien, wie z.B. der Bayrische Rundfunk enthalten waren – also ein sogenanntes „Mainstream-Cluster“. Und in einen zweiten Schwarm, einem rechtspopulistischem „Cluster“, in dem vorrangig xenophobe, fremdenfeindliche Deutungen der Ereignisse vorherrschten,  so der Journalistik-Forscher Gerret von Nordheim, der die damaligen Twitter-Konversationen zu den schrecklichen Ereignissen von München analysiert hatte und in einer TV Dokumentation bekannt gab. Zwar kann sich jeder heute prinzipiell im Netz auf Twitter oder Facebook zu solchen Ereignissen öffentlich äußern und jeder Nutzer kann auf jeden anderen Nutzer reagieren. Der Forscher identifizierte an jenem Tag jedoch zwei Gruppen von Nutzern, welche auf recht unterschiedliche Art kommunizierten und die Ereignisse bewerteten. Die kleinere Gruppe um PEGIDA und AfD hatte praktisch keinen Kontakt zu der größeren Mainstream-Gruppe. In der kleineren Gruppe tauschte man sich nur untereinander aus. Als dann nachts die Münchner Polizei via Pressekonferenz bekannt gab, dass es sich um einen Einzeltäter ohne organisierten terroristischen Hintergrund handele, glaubten es die Menschen in der xenophoben, rechtspopulistischen Gruppe besser zu wissen. Viele von jenen bis heute noch! Eine Verschwörungstheorie, die nach den Morden in München im Netz kursierte, war oder ist bis heute, dass es sich doch um einen islamistischen Terroranschlag handelte. Dazu gab es Berichte mit Fotos und sogar Fotomontagen, welche teilweise aus anderen Kontexten gezogen und unter dem Hashtag München verbreitet wurden. Die Menschen in dieser kleineren, isolierten Gruppe waren mit Fakten nicht mehr zu erreichen. Informationen, die ihnen nicht passten, prallten einfach von ihnen ab. Und genau dieses Phänomen macht eine sogenannte Filterblase (Filter Bubble) aus.

 


Der Politik-Aktivist Eli Pariser erfindet bereits im Jahr 2011 den Begriff  „Filter Bubble“ (Filterblase). Er beschreibt damit das Phänomen, wie Nutzer sich im Internet zunehmend einseitig informieren und sich online nur noch mit Menschen und Nachrichtenquellen umgeben, die ihr bereits vorhandenes Weltbild bestätigen, während sie kritische und widersprechende Meinungen meiden. Rückblickend erkennt man dieses Phänomen auch im Zusammenhang mit dem letzten US-Präsidentschaftswahlkampf, was die falschen Wahlprognosen erklären lässt. Trump-Wähler und Journalisten waren ganz einfach in zwei verschiedenen Filterblasen „unterwegs“. Aber auch hierzulande ist die Blasenbildung deutlich zu beobachten und bereits Alltag. Die Süddeutsche Zeitung analysierte jüngst die politische Kommunikation im deutschen Teil von Facebook und entdeckte, dass sich dort vor allem die Anhänger der AfD isolieren. Diese Idee von Gruppen, die eine besondere Realität haben und nicht belehrbar sind, die gab es schon beim Philosophen Platon in seinem Höhlengleichnis. Menschen sitzen in einer Höhle und betrachten die Schatten an den Wänden der Höhle und halten diese für Realität. Und wenn jemand aus dem Tageslicht kommt und die Höhlenbewohner aufklären möchte, dann wird er ausgelacht, weil er blinzelt und kann nach festem Glauben der Höhlenbewohner die Schatten nicht so gut lesen wie sie selbst und dies bekräftigt diese darin, dass nur sie – die Höhlenbewohner – die Wahrheit sehen können.



Kann uns das auch passieren ? Dass wir uns nicht mehr dafür interessieren, was wirklich ist und nur noch das glauben, was wir glauben wollen? Was dieses Phänomen so kompliziert macht: Eine Filterblase ist ja eine Art Wahrnehmungsstörung. Und genau aus diesem Grunde können wir unsere eigene Blase auch nicht wahrnehmen. So wenig, wie man z.B. in einen toten Winkel hineinsehen kann. Woran können wir also erkennen, ob wir uns bereits in einer Filterblase befinden? Wenn alle möglichen Leute um uns herum genau unsere Meinung haben und wir nie auf Widerspruch stoßen, dann sollten wir vorsichtig werden! Denn dies ist ein lupenreiner Indikator dafür, dass wir bereits alle kritischen Stimmen um uns isoliert, weg geklickt und blockiert haben. Es kann in einer komplexen Welt wie unserer kein Thema geben, wo alle Menschen um uns herum der gleichen Meinung wären. Das heißt also, wenn wir keine widersprechenden Stimmen oder Meinungen hören, wir uns bereits in einer Filterblase befinden.  Es ist nicht leicht, sich mit einem homo sapiens-Gehirn durch die Informationsfluten des 21.Jahrhunderts zu bewegen. Einerseits! Andererseits: Es wird nie wieder so leicht sein wie heute! „Twitternde Roboter-Horden“ und Fotos mit falschen Zitaten sind vergleichsweise rohe und simple Täuschungstechniken. Die nächste Generation der Lügenmeldungen wird sich nicht so einfach entlarven lassen. Eine Herausforderung für uns alle. Was sind also Fakten und was ist Fake? Dies zu beurteilen wird in Zukunft immer schwieriger werden! Der Softwareentwickler Adobe entwickelt derzeit beispielsweise eine Art Photoshop für menschliche Stimmen. Damit kann man Prominenten oder Unbekannten eigene Worte in den Mund legen. Audioaufnahmen als Beweis für ein Zitat, wären dann mehr oder weniger wertlos! Selbst Videoaufnahmen werden bald nichts mehr beweisen können. Oder im Umkehrschluss:  Alles, was man will? Forscher der Stanford Universität können bereits jetzt die Mimik eines beliebigen Menschen auf die Videoaufnahme eines anderen Gesichtes übertragen. Und dies in Echtzeit. Sogar falsche Live-Interviews im TV ließen sich damit in Zukunft fabrizieren. Ein paar Aufzeichnungen von älteren Interviews würden schon genügen. Und schon sorgt die neue Standfort -Software für überraschende Zitate. Oder passiert all dies bereits schon heute?

Jedenfalls kann heute nahezu jeder mit seinem Smartphone in nur wenigen Minuten Filmschnitzel fälschen, wofür vor einigen Jahren noch Filmspezialisten in Hollywood wochenlang gebraucht hätten. Ein Stück weit stecken wir schon alle bereits in einer Filterblase. Dennoch haben wir immer noch unseren freien Willen. Wenn wir uns also diesen Filterblasen – Effekten bewusst sind , dann können wir auch „Nein“ sagen , diese beurteilen und uns ganz bewusst auch mit anderen Meinungen und Sichtweisen austauschen, um so aus der Blase zu entfliehen. Lügen, Propaganda, Bosheit und Verbohrtheit. Dies ist alles nichts neues, sondern tief in der menschlichen Natur verwurzelt. Das Netz macht diese unangenehmen Eigenschaften des homo sapiens für alle sichtbar und heizt uns dadurch noch an. Aber dennoch kann jeder von uns noch selbst entscheiden, ob er sich in einer Filterblase befinde oder sich ganz bewusst mit kontroversen Meinungen und Ansichten auseinandersetzen möchte. (Markus Sparfeldt)



Zum Seitenanfang