Kommentar | Digitalisierung und Demokratie Die undurchschaubare Macht

Wer beeinflusst uns wie in den sozialen Medien?

Information

Foto: joshua Hoehne via unsplash

Der angekündigte Kauf von Twitter durch den reichsten Menschen der Welt, Elon Musk, lenkte erneut Aufmerksamkeit auf die Frage, welche Rolle eigentlich digitale Konzerne spielen, welche Gefahren von ihnen ausgehen, nicht nur für einen funktionierenden Wettbewerb, sondern auch für die Demokratie selbst, denn wer die Kommunikation zwischen Millionen Menschen kontrollieren und steuern kann, der hat ein mächtiges Manipulationswerkzeug in der Hand. Jahrzehnte ließ man die digitale Wirtschaft einfach machen, Regulierung hinkte immer um viele Jahre hinterher und so konnten größere Konzerne entstehen, als je zuvor in der Geschichte der Menschheit.

Der enorme Einfluss von Social-Media

Google kontrolliert über 90 Prozent der Suchvorgänge im Internet und hat über den Suchalgorithmus unglaublichen Einfluss, denn die meisten Menschen lesen nur die Suchergebnisse auf der ersten Ergebnisseite und selbst dort oft nur die ersten drei bis vier Ergebnisse. Man stelle sich zwei Bewerber*innen um ein politisches Amt vor, Frau X und Herr Y, und was es für Folgen haben könnte, wenn über Frau X ein negativer Text unter den ersten drei Suchergebnissen erscheint, ein positiver aber erst auf Seite zwei und bei Herrn Y wäre es genau umgekehrt. So knapp wie häufig Wahlen entschieden werden, könnte allein das Ranking dieser Suchergebnisse einen Unterschied machen.

Nehmen wir Facebook dazu und betrachten den Geh-Wählen-Button, der vor Wahlen häufig eingeblendet wird. Niemand kann unabhängig sehen oder kontrollieren, wann, warum und wem der Geh-Wählen-Button am Tag der Wahl angezeigt wird. Aber Untersuchungen ergaben, dass die Anzeige dieses Buttons am Tag der Wahl einen messbaren und erheblichen Einfluss darauf hat, ob Menschen wählen gehen oder nicht. So hauchdünn, wie selbst Entscheidungen von extremer Tragweite waren (z.B. die Entscheidung über den Brexit, die Wahl von Trump zum US-Präsidenten), können auch solche Effekte wahlentscheidend sein.

Wie durch unsere Nutzung Profit gemacht wird

Die Algorithmen, nach denen sich unsere Timelines auf Facebook, Twitter oder Instagram zusammensetzen, wirken im Verborgenen. Wir wissen nicht, warum wir ein Posting weiter oben und ein anderes weiter unten angezeigt bekommen. Früher wurden die Status Updates unserer Kontakte in den sozialen Medien chronologisch angezeigt, aber das ist lange her, denn diese Plattformen arbeiten profitorientiert, ihr primäres Geschäftsmodell ist der Verkauf von Werbung und Werbeeinnahmen sind dann höher, wenn Menschen möglichst viel Zeit auf der Plattform verbringen. Deshalb wurden die Algorithmen stets weiter optimiert, so dass sie möglichst viele Menschen möglichst lange auf der Plattform halten. Der Like Button? Er führt zur Ausschüttung von Endorphinen, er macht Nutzer*innen abhängig, die ständig gucken, ob sie schon einen Like mehr haben, und wer da was geliked hat – und schon verbringen sie mehr Zeit auf der Plattform, die Kasse für Facebook klingelt, jede Minute Aufmerksamkeit ist bares Geld. Die Profitmargen für Facebook sind enorm. Die Gewinne in astronomischer Höhe werden kaum versteuert (auch das wird nach wie vor zugelassen und ist ein Skandal für sich!), diese Gewinne machen nicht nur Aktionäre reich, sie werden auch investiert in immer neue Features, die alle das gleiche Ziel haben: noch mehr Aufmerksamkeit der Nutzer*innen zu binden und für diesen Zweck die besten Talente der Welt für Mondgehälter einzukaufen, und jeden Wettbewerber aufzukaufen, der entweder gefährlich werden könnte, oder dessen Innovationen man sich einverleiben oder vom Markt verschwinden lassen will. So kaufte Facebook 2012 für eine Milliarde Dollar Instagram, das heute mehr als eine Milliarde Nutzer*innen hat. Und 2014 wurde WhatsApp gekauft, für schon 22 Milliarden Dollar, das inzwischen zwei Milliarden Menschen auf ihren Handys haben.

Anke Domscheit-Berg ist Publizistin, Netzaktivistin und Digitalpolitische Sprecherin der Fraktion DIE LINKE im Bundestag.

Die Konsequenzen sind weniger Wettbewerb, weniger Innovationen und ganz allgemein ein dysfunktionaler Markt, in dem es insbesondere Neugründungen schwer haben. Aus diesem Grund gibt es zunehmend auch Kritik an diesen Monopolen aus wirtschaftskonservativen Lagern, selbst aus Kreisen US-amerikanischer Republikaner*innen.

Demokratiegefährdend ist aber auch die Kombination der Psychologie des Menschen mit dem Ziel dieser Plattformen, viele Werbedollars über viel Nutzer-Aufmerksamkeit einzunehmen, denn mehr Aufmerksamkeit lässt sich mit mehr Emotionen erzielen, vor allem mit negativen. Wenn wir uns aufregen, dann interagieren wir mehr auf der Plattform, wir kommentieren, teilen, oder klicken auf ein wütendes, kotzendes oder weinendes Emoticon und schon verbringen nicht nur wir mehr Zeit dort, sondern auch andere, die durch uns diesen Aufreger-Post erst zu sehen bekommen. Posts mit vielen Wut-Emojis erhalten eine etwa fünffache Reichweite und Botschaften, die polarisieren, krasse Falschnachrichten enthalten, beleidigen und pöbeln, bekommen eine bessere Bewertung durch den Algorithmus, denn dem ist egal, wozu das langfristig führt, nämlich zu mehr Reichweite für toxische Postings, zu mehr digitaler Gewalt, zu mehr Hass und Konfrontation, zu mehr Feindschaft und am Ende auch zu physischer Gewalt, bis hin zu Mord und Totschlag.

Facebook und der Völkermord in Myanmar

Ein Untersuchungsausschuss der UN wies nach, dass Facebook einen nennenswerten Anteil daran hatte, dass in Myanmar der Hass gegen die muslimische Bevölkerungsgruppe der Rohingya in Völkermord und Vertreibung umschlug. In einigen ärmeren Ländern dieser Welt ist der einzige Zugang zum Internet der Zugang zu Facebook, weil dort große Telekommunikationsunternehmen Inklusiv-Verträge mit Facebook abgeschlossen haben, wodurch Datenverkehr zu Facebook nicht extra bezahlt werden muss. Das sonstige Internet ist für viele nicht bezahlbar, ihre digitale Welt betrachten sie durch die Brille eines toxischen Facebook-Algorithmus. Wenn Menschen eine bestimmte Desinformation mehrfach angezeigt bekommen, z.B. weil sie ein Algorithmus der Plattform besonders hoch rankt und immer wieder aus unterschiedlichen Richtungen den Nutzer*innen in ihre Timeline spült, dann wird diese Desinformation als glaubwürdiger wahrgenommen. Die Medienkompetenz der Nutzer*innen hinkt leider der Entwicklung solcher Phänomene weit hinterher. Je nach Bildungstand gaben in einer Studie der Initiative D21 nur zwischen etwa 40 und 75 Prozent der Befragten an, dass er oder sie glaubt, die Seriosität einer Quelle einschätzen zu können. Zusätzlich verwenden nur etwa 60 bis 80 Prozent der Nutzer*innen regelmäßig mehr als eine Quelle, um eine Information zu suchen.

Manipulation via Facebook beim Brexit

Wenn man dies kombiniert mit der Möglichkeit, die speziellen Interessen, Leidenschaften oder individuellen Ängste von Menschen zu kennen, dann sind die Manipulationsmöglichkeiten extrem hoch. Wo es um Macht, um viel Macht geht, da wird natürlich manipuliert und jede Gelegenheit dafür genutzt, die man für Geld kaufen kann. So lief es auch beim Brexit. Mit viel finanziellen Ressourcen ausgestattet, nutzte das Unternehmen Cambridge Analytica die von Facebook über seine Nutzer*innen gesammelten Daten, um ihnen dort maßgeschneiderte Anzeigen einblenden zu lassen: Teeliebhaber*innen erhielten eine Anzeige, die sie vor dem Verbot von Wasserkochern durch die EU warnte, Sympathisant*innen der Tierschutzvereinigung PETA blickten auf Anzeigen, die das Schlachten von Robbenbabys zeigten – mit der Lüge, dass die EU das Robbenbabyschlachten erlauben will, und den Nutzer*innen, deren ausländerfeindlichen und/oder islamfeindlichen Einstellungen Facebookdaten offenlegten, zeigte Cambridge Analytica im Auftrag seiner Geschäftspartner Anzeigen, die anschaulich beschrieben, dass ohne Brexit viele Millionen Muslime aus der Türkei in die EU – und damit nach Großbritannien kommen würden, da die Türkei vermeintlich kurz vor dem Beitritt zur EU stünde. Transparenz zu diesen politischen Anzeigen gab es kaum. Die Daten verwendete Cambridge Analytica rechtswidrig. Am 23. Juni 2016 gewannen die Brexit Befürworter entgegen der allgemeinen Erwartung das Referendum für den Ausstieg aus der EU. Der Vorstand von Cambridge Analytica wurde erst später weltweit bekannt, es war Steve Bannon, den Donald Trump nach seinem Wahlsieg als Berater ins Weiße Haus holte.

Die Beeinflussung der US-Wahlen

Der Grund: Cambridge Analytica spielte auch im US-Präsidentschaftswahlkampf eine einflussreiche Rolle. Noch im November 2016 bestritt CEO Mark Zuckerberg, dass Desinformationen auf Facebook die US Wahlen beeinflusst hätten. Wenige Monate später, im April 2017, musste Facebook zugeben, dass es doch Einflussnahmen Dritter auf die US-Wahlen gegeben hatte. Ein weiteres Jahr später, im März 2018 wurde publik, dass Cambridge Analytica die Daten von 78 Millionen Facebook-Nutzer*innen illegitim erworben und für gezielte Wahlbeeinflussung zugunsten Donald Trumps verwendete. Kurz danach eröffnete die Federal Trade Commission (FTC) der USA Untersuchungen zu dem Vorfall, seitdem wurde die Luft dünner für Mark Zuckerberg. Nur Wochen danach musste er vor dem US Parlament aussagen, wo er die Abgeordneten mit der Aussage überraschte, dass Facebook gar kein Monopol sei.

Das sehen auch viele hochrangige Politiker*innen anders. Im darauffolgenden US-Präsidentschaftswahlkampf kündigte Elisabeth Warren an, im Falle ihres Wahlsieges Facebook zu zerschlagen, den Kauf von WhatsApp und Instagram rückgängig zu machen und allgemein digitale Monopole härter zu regulieren.

Die Kritik riss nicht ab. Selbst sein Mitgründer Chris Hughes forderte im Mai 2019 die Zerschlagung von Facebook und kritisierte, dass es noch nie ein Unternehmen gab, das eine derartige Fähigkeit besaß, die Kommunikation von (damals) zwei Milliarden Menschen zu überwachen, zu organisieren und sogar zu zensieren. Kurz darauf, im Juni des gleichen Jahres, begannen Untersuchungen des FTC wegen Wettbewerbsrechtsverletzungen. Nur einen Monat später musste Facebook wegen der Geschäfte mit Cambridge Analytica fünf Milliarden Dollar Strafe an das FTC zahlen – die höchste Strafe, die bis dahin ein Unternehmen jemals für die Verletzung der Privatsphäre seiner Nutzer*innen zahlen musste. Danach ging es Schlag auf Schlag: Im September 2019 eröffneten Staatsanwälte erst von acht US-Bundesstaaten eigene Untersuchungen wegen Wettbewerbsrechtsverletzungen, doch schon im Oktober 2019 waren es 47 US-Bundesstaaten und –Gebiete, sowie das Bundesjustizministerium. Noch zu Trumps Regierungszeit, Ende 2020, wurde eine Wettbewerbsklage eingereicht, aber in 2021 abgewiesen. Die Richter vertraten die Position, dass Facebook «nicht glaubhaft» als Monopol dargestellt werden konnte.

#facebookfiles von Whistleblowerin Frances Haugen

Ruhe hatte das Unternehmen damit jedoch nicht, denn im Juni 2021 eröffneten die Europäische Union und das Ex-EU-Mitglied Großbritannien ebenfalls (jeweils) Untersuchungen wegen Wettbewerbsrechtsverletzungen durch Facebook. In diese Gemengelage hinein schickte Frances Haugen, Ex-Produktmanagerin im Bereich Desinformation bei Facebook, Zehntausende Dokumente an die Presse aber auch an die United States Securities and Exchange Commission (SEC), die unter dem Begriff #facebookfiles bekannt wurden und belegten, dass Facebook sowohl die Öffentlichkeit, als auch seine Investoren über wesentliche Sachverhalte getäuscht hatte. Zu diesem Zeitpunkt nutzten bereits 3,6 Milliarden Menschen weltweit dieses Netzwerk. Die geleakten Dokumente wiesen nach, dass Facebook/Meta die mentale Gesundheit Minderjähriger schädigt und das auch intern bekannt war. Insbesondere wirkt sich Instagram negativ auf die seelische Gesundheit von Teenagern aus, die obwohl das gar nicht zulässig ist, auch jünger als 13 Jahre die Plattform nutzen. Die Folgen sind unter anderem Essstörungen, die auch in Deutschland die tödlichste psychische Erkrankung sind. Außerdem belegten die Facebook-Files, was bis dahin bereits vermutet wurde, nämlich, dass die verwendeten Algorithmen Hate Speech und polarisierende Inhalte begünstigen und dass Facebook dazu genutzt wurde, Massenmorde an Rohingya zu verabreden und den Angriff auf das US-Capitol zu planen.

Schlagzeilen machten aber auch die Dokumente, weil offenbar Facebook nicht nur von den schädlichen Wirkungen seiner Dienste wusste, sondern auch Methoden kannte, die diese Wirkungen verringert hätten – es aber unterließ, sie einzusetzen, weil sich damit der Profit verringert hätte. So berechnete Facebook Anzeigenkunden geringere Anzeigenpreise, wenn die geschaltete Anzeige eine «hohe Qualität» hatte, die Qualität wurde aber anhand des durch die Anzeige ausgelösten «Engagement» bewertet – Engagement wiederum heißt Interaktionen der Nutzer*innen und wie beschrieben, werden durch polarisierende Anzeigen mehr Emotionen und damit mehr Interaktionen ausgelöst, sie werden also billiger für den Auftraggeber. Man muss das noch einmal ganz klar sagen: Anzeigen bei Facebook sind billiger, wenn sie Hass-schürende Inhalte enthalten und polarisierend auf Nutzer*innen wirken! Was für ein abstoßendes Geschäftsmodell! Frances Haugen outete sich wenig später als Whistleblowerin, um weiter dazu aufzuklären, wie Facebook Demokratien destabilisiert, Spaltungen vertieft und insbesondere jungen Frauen und Mädchen ein negatives Bild ihres eigenen Körpers vermittelt. Facebook hat Daten dazu, wie Mädchen, die Inhalte zu Essstörungen ansehen, immer depressiver werden, aber gerade deshalb immer mehr dieser schädlichen Inhalte konsumieren und noch mehr Zeit auf der Plattform verbringen.

In einer Anhörung vor dem US-Senat im Oktober 2021 sagte Frances Haugen aus, dass der Meta-Konzern, zu dem Facebook, Instagram und WhatsApp gehören, seinen Profit über alles stellt und sowohl Minderjährigen als auch der Demokratie schadet. Dieser weitere Skandal führte zu neuen Ermittlungen durch US-Staatsanwälte von acht US-Staaten, diesmal wegen mangelndem Schutz Minderjähriger, was eine Verletzung von Verbraucherschutzgesetzen darstellt. Anfang 2022 ließ die US-Kartellbehörde eine zweite Wettbewerbsklage der Federal Trade Commission zu, die die Monopolstellung von Facebook klarer belegt und die Zerschlagung von Meta, insbesondere die Abspaltung von Instagram und WhatsApp fordert.

Die Europäische Union hat in den letzten Monaten sowohl den Digital Services Act als auch den Digital Markets Act auf den Weg gebracht, zwei Regulierungspakete, die die Macht besonders großer digitaler Plattformen beschneiden sollen. Ob sie diese Erwartung erfüllen, wird jedoch erst die Praxis zeigen. Die angedrohten Sanktionen bei Verletzung der EU-Vorgaben sind jedoch empfindlich und schließen auch die Zerschlagung eines Konzerns ein.

Für DIE LINKE ist klar, dass diese Regulierungen noch nicht weit genug gehen. Digitale Plattformen sind zu mächtig geworden, zahlen kaum Steuern, halten sich nicht an Gesetze, zahlen Strafen aus der Portokasse, vermarkten die Daten ihrer Nutzer*innen, um immer noch mehr Werbung zu verkaufen und scheren sich nicht um die negativen Auswirkungen ihrer Geschäftsmodelle. Soziale Netze sind jedoch die soziale Infrastruktur der digitalen Gesellschaft. Sie dienen dazu, ein zutiefst menschliches Bedürfnis zu befriedigen: miteinander zu kommunizieren und Beziehungen zu knüpfen. Dieses Bedürfnis sollte frei von jeglichen Nebenzwecken durch eine nicht kommerzielle, nicht staatliche, sondern ausschließlich gemeinwohlorientierte Plattform erfüllt werden können. Sie sollte nachhaltig öffentlich finanziert sein, etwa auf europäischer Ebene, dem Prinzip der Offenheit folgen durch Open Source Code und maximale Transparenz, aber auch den Nutzer*innen maximale Autonomie einräumen. Interoperabilität mit existierenden sozialen Netzen kann den Lock-In-Effekt außer Kraft setzen und nach und nach einen Umzug von anderen Plattformen ermöglichen, natürlich unter Mitnahme der persönlichen Datenhistorie, sofern und in welcher Form man das wünscht. Im Bundestag setze ich mich als digitalpolitische Sprecherin der Linksfraktion immer wieder für eine solche Alternative ein, aber auch für die überfällige härtere Regulierung digitaler Monopole.