Die algorithmische Unsichtbarkeit entsteht nicht durch aktive Unterdrückung, sondern durch strukturelle Nicht-Beachtung.  Plattformalgorithmen sind darauf optimiert, Aufmerksamkeit zu binden  und Verweildauer zu maximieren. Inhalte, die diesem Ziel dienen, werden  priorisiert – alles andere rutscht in die unteren Feed-Bereiche oder  wird gar nicht erst angezeigt.

Dieses System begünstigt bestimmte Arten von Inhalten: emotional  aufgeladene, kontroverse, einfach konsumierbare. Wie eine Studie der  Bertelsmann-Stiftung zeigt, beziehen 74 Prozent der jungen Menschen ihre politischen Informationen bereits aus Social Media1.
In diesen Räumen dominiert nicht argumentative Tiefe, sondern affektive Resonanz – das, was sich in 60 Sekunden fesseln lässt.

Gleichzeitig entstehen parallele Wirklichkeiten:  Während traditionelle Medien noch nach publizistischen Prinzipien  arbeiten (Relevanz, Überprüfung, Einordnung), regieren in algorithmisch  kuratierten Feeds andere Maßstäbe (Reichweite, Reaktion, Rhythmus). Zwei  Öffentlichkeiten existieren nebeneinander, die sich kaum noch berühren –  eine Entwicklung, die den gesellschaftlichen Diskurs fragmentiert.

Die politischen Konsequenzen: Von der Demokratie zur Plattformokratie?

Die Auswirkungen dieser Transformation sind tiefgreifend. Die  Demokratie, argumentiert Medienwissenschaftlerin Charlotte Echterhoff,  sei „vom Aussterben bedroht“ durch den „desolaten Zustand der  Öffentlichkeit“2.

Digitale Plattformen seien dabei nicht bloß technische Infrastrukturen, sondern politische Ordnungsakteure, deren Algorithmen die kuratierende Funktion eines normativ handelnden Journalismus ersetzen.

Ohne demokratische Legitimation oder Kontrolle organisieren diese  Algorithmen Öffentlichkeiten nicht nur spaltend – sie begünstigen aktiv  Themen, die sich für Spaltung eignen. Populistische Vereinfachungen,  identitätspolitische Zuspitzungen und emotionale Aufreger verbreiten  sich „per Design“ besser als differenzierte Analysen. Lügen – als  sogenannte Fake News – werden zu ebenbürtiger Grundlage für  Meinungsbildung neben recherchierten Informationen.

Die Marktmachtkonzentration verschärft dieses Problem: Fünf Plattform-Unternehmen (Google, Amazon, Alphabet, Microsoft, Apple) konzentrieren 98,8 Prozent der Internetnutzung auf ihre Angebote3.

Diese „digitale Oligarchie“ bestimmt damit, welche Informationen wir  als Gesellschaft teilen – ohne demokratische Rechenschaftspflicht.

Widerstand und Gestaltung: Wie wir eine menschenzentrierte Öffentlichkeit zurückgewinnen können

Gegen diese Entwicklungen formiert sich zunehmend Widerstand auf mehreren Ebenen:

1. Regulatorische Ansätze

Mit dem Digital Services Act (DSA) und dem Digital Markets Act (DMA) hat die Europäische Union erste regulatorische Instrumente geschaffen,  um Transparenz, Nutzerrechte und Interoperabilität zu stärken. Diese  Gesetze setzen wichtige Signale, reichen aber allein nicht aus, um die  strukturelle Plattformdominanz aufzubrechen.

Vordenker wie Martin Andrée schlagen weitergehende Maßnahmen vor:  volle Outlink-Freiheit für Creator, die Trennung von Kanal und Inhalt,  sowie offene Standards und Interoperabilität4.

Solche Regelungen würden Nutzern mehr Souveränität geben und Konkurrenz zu den Tech-Giganten begünstigen.

2. Alternative Plattformdesigns

Ein vielversprechender Ansatz ist das Konzept „demokratischer Algorithmen“.  Statt Millionen individualisierter Konsumwelten („More of the same“)  könnten Empfehlungssysteme bewusst Begegnungen mit Gegenpositionen  ermöglichen („Some of the other“).

3. Medienbildung und kritische Kompetenz

Letztlich liegt entscheidende Verantwortung bei der Förderung von Medienkompetenz.  Wie der Journalist Simon Hurtz warnt, darf dies jedoch nicht zu  generellem Misstrauen führen, das auch authentische journalistische  Berichterstattung infrage stellt5.

Vielmehr braucht es differenzierte Fähigkeiten: Quellen kritisch zu  prüfen, algorithmische Logiken zu verstehen und bewusst aus Filterblasen  auszubrechen.

Fazit: Die formalisierte Öffentlichkeit und ihr menschliches Gegengewicht

Wir leben heute nicht in einer weniger freien, sondern in einer stärker formalisierten Öffentlichkeit. Was sich nicht in verarbeitbare Signale übersetzen lässt, wird unsichtbar – unabhängig von seiner realen Bedeutung.


Fußnoten

  1. Bertelsmann Stiftung (2023). Jugend und Politik in der Digitalität.
  2. Echterhoff, Charlotte (2022). Demokratie in Zeiten algorithmischer Öffentlichkeit.
  3. Konzentrationsdaten basierend auf Analysen des Bundeskartellamts und der EU-Kommission (2023).
  4. Andrée, Martin (2021). Plattform-Ökologie: Wege aus der digitalen Oligarchie.
  5. Hurtz, Simon (2023). Vertrauen in Medien: Warum pauschaler Misstrauen schadet.

Dir gefällt, was Arnold Schiller schreibt?

Dann unterstütze Arnold Schiller jetzt direkt: