Facebook – Gerüchte, Falschmeldungen, gezielte Manipulationen
Der Schock darüber, wie es einem Rüpel wie Donald Trump gelingen konnte, die Präsidentschaftswahlen zu gewinnen, brachte Facebook erneut in Verdacht, auf Meinungsbildung, Einstellung und Verhalten von Nutzern des Sozialen Netzwerks Einfluss genommen zu haben. Mark Zuckerberg versichert, dass es mehr als unwahrscheinlich sei, dass Falschmeldungen und Gerüchte, die sich mit hohen Reichweiten auf Facebook verbreitetet hatten, die U.S. Wahlen beeinflusst hätten. Das sehen Kritiker, selbst im eigenen Unternehmen, differenzierter.
Facebook testete gezielt Möglichkeiten der Manipulation
In der New York Times vom 15 November weist Zeynep Tufekci unter dem Titel „Mark Zuckerberg Is in Denial” darauf hin, dass Facebook schon 2010 ein Experiment zur Beeinflussung des Wählerverhaltens durchführte. Es zeigte sich, dass durch Einblendung von kleinen Profilbildern derjenigen ‚Freunde‘, die schon gewählt hatten, die Aufforderung zur Wahl zu gehen, deutlich wirksamer war, als ohne diesen Verweis auf das Verhalten der sog. ‚Peergroup’. Insgesamt zeigte dass Experiment, dass Facebook die Wahlbeteiligung bei den U.S. Midterm elections signifikant steigern konnte. Die Wahlbeteilung bei den aktuellen Wahlen im November positiv beeinflusst zu haben, schrieb Mark Zuckerberg Facebook ausdrücklich als Erfolg zu: „Overall, I am proud of our role giving people a voice in this election. We helped more than 2 million people register to vote, and based on our estimates we got a similar number of people to vote who might have stayed home otherwise.”
Ohne ihr Wissen wurden 689.000 Nutzer vor vier Jahren zu Probanden. An ihnen wurde getestet, ob es Facebook gelänge die Emotionen von Nutzern zu beeinflussen. Dabei wurden einer Versuchsgruppe verstärkt positive News und einer anderen verstärkt negative News eingeblendet. Es zeigte sich, dass dies signifikant Einfluss auf das Verhalten der jeweiligen Nutzer hatte. Die Ergebnisse dieses Experiments wurden unter dem Titel „Experimental evidence of massive-scale emotional contagion through social networks” veröffentlicht. Neben vielen anderen Autoren hat Robert Booth im The Guardian („Facebook reveals news feed experiment to control emotions”) dieses „secret mood experiment” zutreffend kritisiert. Lesenwert in diesem Zusammenhang ist auch der Beitrag von Charlie Warzel in BuzzfeedNews „Facebook Data Scientists Manipulated News Feed To Perform A Psychology Experiment On 600,000 Users”
Es ist davon auszugehen, dass Facebook inzwischen sehr viel mehr darüber weiß, wie es auf die Nutzer ohne deren Wissen Einfluss nehmen werden kann. Zumindest belegen die bekannt gewordenen Fälle eindeutig, dass Mark Zuckerberg enormes Interesse dazu hat. Daher ist es sehr unglaubwürdig, wenn er nach den Wahlen den Eindruck vermitteln will, dass es Facebook nicht um die Möglichkeit manipulativer Einflussnahmen ginge, bzw. gegangen war. (Vgl. Manipulationen von Trends und News auf Facebook)
Edge Rank Algorithmus und Echo Chamber Effekte
Unbestritten ist, dass sich in sozialen Systemen Menschen insbesondere von engen Kontakten und wichtigen Bezugspersonen beeinflussen lassen. Das zeigte Marc Granovetter in „The Strength of Weak Ties” (1973). Seine Forschungsergebnisse hatten zweifelsohne die Entwicklung von Sozialen Netzwerken im Social Web beeinflusst. Während Granovetter allerdings die Bedeutung sog. „schwacher Verbindung” hervorhob und deren Bedeutung auszeichnete, verfolgt Facebook die Strategie der „starken Verbindungen”. Verkürzt gesagt, es finden insbesondere diejenigen zusammen, die sich weitgehend ähnlich sind und dieselben Ansichten und Interessen zumindest weitgehend teilen. Dabei entsteht ein sog. „Echo Chamber Effect”, ein Effekt der auf ein selbstreferentielles System verweist. Eines der Kennzeichen solcher Systeme ist eine gewisse Abschottung gegen fremde Ansichten und Einflüsse, also gegenüber allem, das nicht affirmativ die eigene „Gruppe” bestätigt.
Der Edge-Rank Algorithmus bei Facebook bestimmt, welche Informationen im jeweiligen Feed der Nutzer gezeigt wird, und welche nicht. Das funktioniert wie ein Filter, damit die Nutzer nicht mit für sie belanglosen Inhalten überschwemmt werden. Maßgeblich dafür, dass Informationen im Feed aufscheinen sind im Wesentlichen drei Aspekte: Beziehung, Interaktion und Häufigkeit — natürlich neben jenen Inhalten, die Facebook aus eigenem Interesse und im Interesse zahlender Kunden verbreiten will.
Im vergangenen Juni hat Facebook am Algorithmus weiter gedreht und Updates von Freunden und Familie gegenüber Inhalten von Nachrichtenagenturen aufgewertet. Das bedeutet, dass der „Echo Chamber Effect” weiter verstärkt wurde. Damit werden Nutzer immer seltener mit „fremden” Inhalten konfrontiert, also mit Inhalten, die die eigene Auffassung nicht von vornherein affirmieren. Olivia Solon bringt dieses Verhalten auf den Punkt: „Looking for what we want to hear”. Und immer seltener treffen diese Nutzer auf Meldungen von bspw. Nachrichtenagenturen, die gern geglaubte Fakes in Frage stellen könnten.
Fake - Mittel zum Zweck
Teilt jemand Inhalte, auch Fake-Inhalte, dann werden diese gegenüber seriösen Nachrichten durch den aktuellen Algorithmus bevorzugt in die Feeds gespielt. Durch die Resonanzverstärkung kommt es folglich zu enormen Reichweiten. Das wiederum verleiht selbst den offensichtlichsten Fakes für viele Nutzer Glaubwürdigkeit, insbesondere dann, wenn die nahestehenden Bezugspersonen diese dem Anschein nach ebenfalls für bare Münze genommen haben.
Dieser Umstand wird von eher dubiosen Geschäftemachern ausgenutzt, wie zuletzt von einigen Websitebetreibern in Mazedonien, die über 100 Webseiten zum U.S. Wahlkampf betrieben und dort die abenteuerlichsten Fakes als Tatsachen behaupteten, nur um via Facebook enorme Reichweiten und damit Werbeeinnahmen zu generieren. Interessant dabei ist, dass diese Webseiten und Plattformen überwiegend pro Trump agierten. Betreiber meinten, dass sich eben das als effektivstes Engagement herausstellte. Nachrichten und Fakes pro Hilary Clinton oder Berni Sanders funktioniert bei weitem nicht im selben Maße. Aufschlussreich hierzu sind die Beiträge „Macedonians from Veles open propaganda web-portals to work in favour for Donald Trump” und „Trumps Fans aus Mazedonien” in der Frankfurter Allgemeinen Zeitung. Auch Facebook geht es letztlich um Werbeeinnahmen Und, ja, Facebook profitiert sehr von davon.
Facebook weiß um diese Mechanismen sehr gut Bescheid. Dennoch versucht Mark Zuckerberg uns Sand in die Augen zu streuen: „Of all the content on Facebook, more than 99% of what people see is authentic.” Lesenswert ist die Entgegnung von Rick Webb „I’m Sorry Mr. Zuckerberg, But You Are Wrong”.
Facebook in die Verantwortung nehmen
Die Forderung, Facebook in die Verantwortung nicht nur für den Plattformbetrieb zu nehmen, sondern ebenso für den Content, wird immer lauter. Zu Recht. Während klassische Medien, sei es analog wie digital, klaren rechtlichen Vorgaben unterliegen, zieht sich Facebook bislang erfolgreich immer wieder aus der Affäre, wenn es darum geht, üble Nachrede, falsche Tatsachenbehauptungen, unlauterer Wettbewerb, Hasspostings bis hin zu Mordaufrufen zu verhindern, bzw. zeitnah auf solche Vorkommnisse zu reagieren, die Autoren anzuzeigen und deren Accounts zu sperren. Dass dies effizient möglich wäre, zeigt das strikte Vorgehen Facebooks gegenüber teils harmlosen Fotos rund um Sex wie beim Aufklärungsvideo der Schwedischen Krebsgesellschaft zu Brustkrebst oder gar die ignorante Zensur einer Ikone der Fotographie, des fliehenden vietnamesichen „Napalm-Mädchens”.
In der EU sollte Facebook wie jedes andere klassische Medienunternehmen in die Pflicht genommen werden. Es kann nicht sein, dass Facebook europäisches Rechtsverständnis aushebelt und Rechtsverfolgung verhindert.
Keinesfalls aber sollte die EU Facebook die Option der Zensur eröffnen. Es geht ausschließlich darum sicherzustellen, dass auf Facebook keine rechtswidrigen Inhalte veröffentlicht werden. Was rechtswidrig ist, sollte sich ausschließlich an Recht und Gesetz des jeweiligen Landes festmachen, nicht an den Moralvorstellungen eines Mark Zuckerberg. Vielmehr sollte willkürliche Zensur durch Facebook selbst ebenfalls rechtlich verfolgbar sein, dann, wenn sich dadurch z.B. unlautere Wettbewerbsvorteile ergeben, Richtigstellungen unterdrückt werden usf..
Facebook ist Nutznießer und es ist nicht zu erwarten, dass es hier eine funktionierende freiwillige Selbstbeschränkung geben wird. Die EU und ihre Mitgliedsstaaten sind gefordert.