Algorithmen entscheiden heute, welche Inhalte an die User ausgespielt werden. Obwohl es unendlich viele Informationen im Netz gibt, wird die Perspektivenvielfalt dadurch oft eingeschränkt. Insbesondere dann, wenn Content-Produzenten und User nicht über den Tellerrand hinausschauen.
Von Berno Delius, Head of Lifestyle, und Marius Bortolusso, Head of Audience Development, Bauer Xcel Media.
Filterblasen hat es immer schon gegeben: Früher trafen sich die Menschen auf dem Dorfplatz, um mit Gleichgesinnten zu reden und Informationen auszutauschen. Irgendwann lasen wir die Zeitung, heute durchkämmen wir zusätzlich oder ausschließlich das Netz auf der Jagd nach schnellen News. Es ist auch nicht neu, dass wir Meinungen von Mitmenschen und Medien eher wiedergeben, wenn sie den eigenen Sichtweisen entsprechen. Das Entscheidende aber ist, dass uns das Bewusstsein für diese Filtervorgänge in der Online-Welt häufig fehlt.
Meinungsbildung verlagert sich in soziale Medien. Große Plattformen wie Google oder Facebook und viele der bekannten Nachrichtenseiten befeuern dieses Phänomen, indem sie die Ausspielungen von Inhalten datenbasiert auf persönliche Interessen, individuelle Standpunkte oder -orte der User anpassen. Das Ziel der Algorithmen ist es, die User individuell „abzuholen“ und sie so lange wie möglich auf der Plattform zu halten. Es entsteht eine künstliche Wohlfühlumgebung, in der jede Meinungsäußerung, jede Regung gespiegelt und verstärkt wird. Beiträge, zu denen ein User eine hohe Affinität hat und mit denen er intensiv interagiert, werden bevorzugt an Freunde und Bekannte ausgespielt.
Die Plattformen stehen aufgrund von Contentmenge und Technologisierung somit vor der immer größer werdenden Herausforderung, wirkliche Meinungsvielfalt darzustellen. Da die Anzahl von Posts zu einem Thema immer schneller steigt, treffen die Algorithmen für die Nutzer letztlich eine Auswahl.
Dieser Logik folgend, werden User ausschließlich mit Inhalten versorgt, die ihren Präferenzen, Einstellungen oder Gewohnheiten entsprechen. Das klingt zunächst toll, aber es gibt auch eine Schattenseite. Immer seltener werden Nutzer mit Informationen konfrontiert, die ihre Weltsicht herausfordern oder erweitern könnten. Können User also überhaupt noch ungefiltert Themen entdecken, wenn Algorithmen die Auswahl für sie übernehmen?
„Ja, das können sie! Dieses Denkbild ist empirisch falsch!“ sagen mittlerweile viele Experten. So auch Bernhard Pörksen, Professor für Medienwissenschaft an der Uni Tübingen, auf der re:publica 2018: Wir leiden nicht unter der Filter Bubble und der algorithmischen Personalisierung. Die Filtersysteme eines Menschen lassen sich leicht aufbrechen, denn ein einziger Klick eines Hyperlinks genüge. Zudem könne man sich insbesondere im Web eben nicht gegen unerwünschte Informationen gänzlich abschotten. Die Theorie der Filter Bubble (vgl. Infobox Eli Pariser oben) treffe nicht zu, da Kommunikation in digitalen Netzwerken sehr viel heterogener sei. Ist die „Filterblase“ also ein Symptom menschlichen Informationsverhaltens und nicht eines der Algorithmen?
Unabhängig von dieser Diskussion, ist aus unserer Sicht ganz entscheidend, dass der Online User kein Bewusstsein für die Filtervorgänge hat. Damit kann er gar nicht aktiv einen Link klicken, der ihn zu anderen Themen führt. So können die Filtervorgänge nicht gezielt aufgebrochen werden.
Menschen und Maschinen verteilen Informationen
Gatekeeper, die Nachrichtenflüsse kontrollieren, gibt es schon lange. Man nennt sie Redakteure. Sie folgen bestimmten ethischen und professionellen Richtlinien und bewerten, was wichtig ist und was die Leser in welcher Form erreichen soll. Doch direkte Aufrufe von online-News-Seiten sind seit Jahren rückläufig, der Zusammenhang zwischen Absender und Nachricht ist offenbar nicht mehr allzu wichtig. Aktuelle Zahlen vom Digital News Report des Reuters Institute zeigen, dass weltweit inzwischen nur noch 36 Prozent aller User den direkten Weg zu einer Mediensite wählen. 64 Prozent kommen über Suchseiten, Social Media, Messenger oder News Aggregatoren. Die Mehrheit ist also auf Kanälen unterwegs, die algorithmusgesteuert sind.
Diese neuen code-basierten Türsteher entscheiden auf umfangreicher Datenbasis und ohne Ausnahmen der Regeln, welche und wieviele von den endlosen Informationen und Inhalten wir zu sehen bekommen und welche nicht: Wer googelt, ist bereits Teil des Google-Algorithmus, auf Plattformen wie Facebook sehen wir auch nur einen Bruchteil der Beiträge und andere Audio-, Video- und Nachrichtenportale sind ebenso personalisiert. Sie alle haben ihre eigenen Algorithmen. Es ist etwas anderes, wenn Software diese Entscheidungen trifft und dem Nutzer Inhalte als „beste Auswahl“ präsentiert.
Wie können Medienschaffende darauf reagieren?
Bei der Bauer Xcel Media konzentrieren wir uns auf unsere Marken und erweitern unsere Reichweiten über unterschiedlichste Kanäle. Dabei richten wir uns nach den Bedürfnissen der Nutzer.
Wenn wir über bedürfnisorientierte Inhalte sprechen, müssen wir dafür sorgen, dass unsere Inhalte kanalspezifisch aufbereitet werden, damit uns die verschiedenen Algorithmen überhaupt als relevant einstufen. Nur so haben wir die Möglichkeit, Einzug in die persönlichen Filterblasen der User zu erhalten. Es reicht nicht aus, den gleichen Inhalt einfach eins zu eins auf allen Touchpoints auszuspielen.
Darüber hinaus geht es darum, möglichst cleverer als die Algorithmen zu sein: Die Auswahl der Inhalte geschieht in vielen Redaktionen immer häufiger unter Zuhilfenahme von Tools, die zum Beispiel anzeigen, welche Themen derzeit in den Suchmaschinen oder sozialen Netzwerken von besonders hoher Relevanz sind. Anstatt uns ausschließlich auf diese Tools zu verlassen, gehen wir mit den Usern in den Dialog, um ihnen Geschichten anzubieten, die sie ursprünglich nicht auf dem Radar hatten. Die Ausspielung von Contents auf Websites und Teasern über unterschiedliche Kanäle sowie die Aufteilung von Traffic- und Reichweiten erlauben es, Vielfalt zu schaffen und damit Filtervorgänge zu durchdringen. Denn wenn wir nur die Inhalte produzieren, die auch bei unseren Wettbewerbern gespielt werden, verstärken wir die ohnehin schon vorhandenen Filterblasen und werden darüber hinaus irrelevant. Bei leichten, unterhaltenden Themen ist das in der Regel weniger schlimm. Bei gesellschaftspolitischen Beiträgen hingegen bekommt die Diskussion eine neue Qualität…
Dieser Beitrag basiert auf der Session „De-Algorithmisierung der Meinungsbildung – Was echte Brands der Facebook-Filterblase entgegensetzen können“ der Social Media Week Hamburg 2018.