Neulich berichtete meine Frau mir verwundert über ein Social-Media-Erfahrung, die zunächst mal nach einem sehr dummen Fehler klang. Bei etwas genauerem Nachdenken darüber meine ich allerdings, ein bestimmtes Prinzip dahinter zu erkennen.
Eine Facebook-Plattform, bei der es um alte Gebäude geht, postet das Bild einer Burg und dazu den Namen einer ganz anderen Burg – und das so offensichtlich, dass es vielen Usern sofort auffällt, da es sich um ein sehr bekanntes Gebäude handelt. Da sonst auf diesem Portal eigentlich immer ganz interessante Sachen gebracht werden, folgt meine Frau dem schon eine Weile – und war nun sichtlich verwundert, als auf einmal ein derart grober Fauxpas dort auftrat.
Kurz danach fiel ihr Ähnliches bei einer Kunstfreunde-Seite auf Facebook auf: Da wurde ein Bild gezeigt, und darunter stand dann, dass das etwas von van Gogh wäre. Auch hier springt die Unstimmigkeit selbst Kunstlaien, die nur irgendwann mal irgendwas von van Gogh gesehen haben, sofort ins Auge.
Die Reaktion darauf vieler User: Sie machen auf den Fehler aufmerksam. Wobei das solche dicken Klopper sind, dass man sich echt fragen muss, wie es denn sein kann, dass Betreiber eines Portals so wenig Fachkenntnis in ihrem eigenen Fachgebiet präsentieren.
Nun konnte ich selbst Ähnliches beobachten bei rechten Facebook-Accounts, entweder von der AfD selbst (beispielsweise in Form von Kreisverbänden) oder von AfD-Anhängern, die offen Stimmung für die Blaubraunen machen: Da wird dann beispielsweise im August ein Beitrag eingestellt, in dem es „Frohe Ostern“ heißt. Oder es wird an einem Dienstag bereits ein schönes Wochenende gewünscht.
Hier sind die Reaktionen dann zumeist noch von Häme durchsetzt, da sich dann etliche Leute zu Wort melden, die mit der AfD und ihrem ekligen Gedankengut nichts anfangen können. So nach dem Motto: „Haha, da war der Bot wohl einfach nur zu doof, was Passendes zu posten.“
Jetzt ist es natürlich nicht abwegig, bei irgendwelchen AfD-Beiträgen generell auch Dummheit und Inkompetenz zu unterstellen, aber leider sind die ja, was das Bespielen der sozialmedialen Klaviatur angeht, doch durchaus geschickt und zumindest mit einer gewissen verschlagenen Bauernschläue ausgestattet. So auch in diesem Fall, wie mir scheint.
Die Reaktion von Usern auf solche „Fehler“ bewirkt nämlich, dass zum einen der Beitrag selbst mehr Reichweite bekommt, zum anderen wird den kommentierenden Usern dann zukünftig dank der Algorithmen wieder etwas von dieser Plattform angezeigt. Und auch Freunde der User bekommen oft zu sehen, das dort dann kommentiert wurde – und werden so ebenfalls auf das Portal, das den „Fehler“ verzapft hat, aufmerksam.
Schlechte Aufmerksamkeit ist besser als keine Aufmerksamkeit. Und umso mehr Klicks es gibt, umso besser für eine Social-Media-Präsenz. Das gilt für Kunst- und Alte-Bauwerke-Seiten genauso wie für politische Plattformen. Und das dürfte den Betreibern solcher Facebook-Seiten auch durchaus klar sein. Was dann wohl auch der Grund sein dürfte, immer mal wieder derart plumpe „Fehler“ einzubauen.
Ist das bei kulturellen Seiten noch leicht zu verschmerzen, so wird es bei politischen Seiten schon heikler. Diese schaffen sich so nämlich eine bereiter Präsenz bei Leuten, die sie sonst nicht angesprochen hätten. Und man wird als User dann – den Algorithmen sei Dank – auch immer wieder mit deren Rotz und dem Gedöns von ähnlich gelagerten Seiten konfrontiert.
Social-Media-Algorithmen bewerten nämlich nur die Quantität von Interaktionen, nicht die Qualität. Wenn jemand irgendwo etwas kommentiert, dann wird das als Interesse gespeichert, sodass diesem User immer wieder ähnliche Inhalte angezeigt werden. Dabei ist es egal, ob der Kommentar nun positiv oder negativ war – Hauptsache, es wurde irgendwie Aufmerksamkeit generiert, die dann verspricht, dass der User wieder seine Aufmerksamkeit einer solchen Sache zuwenden wird.
Das kann man selbst mal ausprobieren: Wenn man irgendein Video, das einem zufällig auf Facebook (und vermutlich auch auf anderen Social-Media-Portalen) angezeigt wird, länger laufen lässt, selbst wenn man es sich nicht anschaut, sondern in der Zeit etwas anderes macht, wird einem aus diesem Themenbereich zukünftig vermutlich immer wieder mal etwas angezeigt. Ich hatte das mal mit einem Video über Snowboarding erlebt. Das ist nun ein Thema, was mich gar nicht interessiert, nur war das gerade offen, als bei mir das Telefon klingelte, sodass ich dann erst das Gespräch führte, bevor ich nach ein paar Minuten weiterscrollte. Danach bekam ich dann andauernd Snowboardvideos angezeigt.
Social-Media-Betreibern wie Facebook geht es nämlich nicht darum, dass dort generell eine gute Diskussionskultur herrscht, dass die User sich gut informieren können oder dass alte Freunde miteinander in nettem Kontakt bleiben. Denen geht es vor allem darum, viel Aktivität und Aufmerksamkeit zu generieren – Hauptsache, Traffic! Denn je mehr das der Fall ist, desto mehr Kohle gibt’s von den Unternehmen, die dort Werbung schalten. Und natürlich erhält man so auch umso mehr Daten, die dann weiterverscherbelt werden können. Insofern sind eben auch die Algorithmen, welche die User dazu bringen sollen, sich bestimmte Sachen anzuschauen, entsprechend programmiert.
Und deswegen kriegt man dann als Nutzer eben auch Dinge angezeigt, die einen gar nicht interessieren oder die man vielleicht sogar richtig ätzend findet, auf die man aber mal (mehr oder weniger bewusst) reagiert hat.
Als Reaktion darauf kann man sich nun nur vornehmen, am besten auf solche offensichtlich plumpen „Fehler“ am besten gar nicht zu reagieren und sie nicht anzumerken. Damit erreicht man nämlich bei niemandem einen Erkenntnisgewinn, allerdings bedient man so zumindest die Strategie derjenigen nicht mehr, die auf diese m. E. recht fragwürdige Weise versuchen, an mehr Reichweite zu kommen.
Was nun natürlich nicht bedeutet, dass man nicht rechter Hetze und Fehlinformation entschieden widersprechen sollte, wenn sie einem begegnen. Nur über dieses Stöckchen der absichtlichen „Fehler“ muss man ja nicht gleich springen – auch wenn es manchmal schwerfällt.
Was dabei aber darüber hinaus auch deutlich wird: Es bräuchte ein Social-Media-Netzwerk in öffentlicher Hand, das ohne Algorithmen zum Clickbaiting auskommt und bei dem man seine Vorlieben, was man gern sehen möchte, selbst problemlos konfigurieren kann. Dort könnte dann auch besserer Datenschutz gewährleistet werden, zudem könnte Werbung außen vor bleiben (nervt ja nicht nur, sondern frisst auch haufenweise Energie auf den Empfängergeräten wie auf den abspielenden Servern) und es sollte dabei eine Möglichkeit geschaffen werden, dass sich User über tatsächlich volksverhetzende Inhalte beschweren könnten und dann eine kompetente Antwort bekämen. Nicht so wie jetzt bei Facebook, wo ja irgendwelche Billiglöhner auf den Philippinen oder sonst wo hocken und Beiträge aufgrund von Schlagworten, die sie selbst gar nicht verstehen, vom Netz nehmen.
Aber so eine integere Kommunikationsinfrastruktur in öffentlicher Hand wird wohl leider nur ein Wunschtraum bleiben …
Dir gefällt, was Karl Haas schreibt?
Dann unterstütze Karl Haas jetzt direkt: