Manipulation in sozialen Medien: die Stratcom/ NATO Untersuchungen

Veröffentlicht am

Das Strategic Communication Centre of Excellence (Stratcom) der NATO hat sich in zwei Studien mit der Manipulation in sozialen Medien beschäftigt:
2019: Falling Behind: How Social Media Companies are Failing to Combat Inauthentic Behaviour Online
2020: Social Media Manipulation Report 2020. How Social Media Companies are failing to combat inauthentic behaviour online
In beiden Experimenten wurden reale Social-Media-Konten dazu genommen, sie mit für Fake News und Kommentaren zu fluten.
„To test the ability of Social Media Companies to identify and remove manipulation, we bought engagement on 105 different posts on Facebook, Instagram, Twitter, and YouTube using 11 Russian and 5 European (1 Polish, 2 German, 1 French, 1 Italian) social media manipulation service providers.
At a cost of just 300 EUR, we bought 3 530 comments, 25 750 likes, 20 000 views, and 5 100 followers. By studying the accounts that delivered the purchased manipulation, we were able to dentify 18 739 accounts used to manipulate social media platforms.“
In einem zweiten Schritt wurden diese Fake-Meldungen an die Sozialen Medien gemeldet. Selbst nach mehreren Wochen waren die Einträge nicht entfernt. Während Twitter und Facebook noch reagiert haben, sind Youtube und besonders Tiktok völlig schutzlos. Die Untersuchungen kommen zu dem Ergebnis: „Self-regulation is not working. The manipulation industry is growing year by year. We see no sign that it is becoming substantially more expensive or more difficult to conduct widespread social media manipulation.“
Stratcom empfiehlt daher, nicht nur die sozialen Medien zu regulieren, sondern insbesondere den Markt für die Medien-Manipulation:
„1. Setting new standards and requiring reporting based on more meaningful criteria
2. Establishing independent and well-resourced oversight of the social media platforms
3. Increasing the transparency of the social media platforms
4. Regulating the market for social media manipulation“

Antinomien der Faktenchecks

Veröffentlicht am

Adrian Lobe, Auch Faktenprüfer machen Fehler. Social-Media-Plattformen unterziehen Beiträge einem Faktencheck. Doch wer kontrolliert die Prüfinstanz?, Neue Zürcher Zeitung 16.11.2010 Papierausgabe untersucht die Antinomien der Faktenprüfung. Nach der Darstellung von Beispielen der Faktenprüfung bei Facebook und Twitter stellt er fest, dass die Prüfprozesse nicht genügend transparent und nachvollziehbar, vor allem aber kaum korrigierbar sind, weil der als falsch markierte Eintrag im Newsfeed herabgesetzt und der Aufmerksamkeit entzogen wird. „Der apodiktische Hinweis ‚Falsche Informationen – geprüft von unabhängigen Faktencheckern suggeriert, dass der Prüfprozess abgeschlossen sei. Zwar kann man sich den Grund anzeigen lassen. Doch gibt es keine Möglichkeit, dieses Urteil anzufechten oder zu revidieren. Das Prüfsiegel kommt mit einem Absolutheitsanspruch daher, als würde Facebook letztinstanzlich über Fakten richten.“ Er zeigt Besonderheiten der Faktenprüfung auf: Satire als Falschnachricht, in der „das Wahre sich gewissermaßen im Unwahren, Übertriebenen ausdrückt“; der Unterschied der Wertung der Tatsachen eines Posts und den dort referierten Äusserungen Dritter; der Wertung eines wahren Berichts über die falschen Aussagen eines Politikers.

Er kommt zu dem Ergebnis: „Das Problem der Faktenchecks besteht darin, dass die Tatsachenprüfung häufig eine Meinungsäußerung darstellt, die im Gewand der Faktizität die Geltung einer ‚richtigen‘ Meinung beansprucht. So tragen die Faktenchecks am Ende selbst zu einer Politisierung von Fakten bei, die sie eigentlich vermeiden wollten.“

Seine Hoffnung auf eine „vernunftgeleitete Debatte“ enthält allerdings selbst eine Antinomie, denn die Faktenprüfung ist aus der Notwendigkeit entstanden, dass diese eben nicht oder nicht ausreichend vorhanden ist, die Faktenprüfung aber wiederum diese nicht ersetzen kann.

Sind Soziale Medien ein Irrtum?

Veröffentlicht am

Frank Rieger, Sprecher des Chaos Computer Clubs und Mitautor des Buchs „Cyberwar: Die Gefahr aus dem Netz. Wer uns bedroht und wie wir uns wehren können“, hat am 12. November 2019 in der Polytechnischen Gesellschaft in Frankfurt am Main einen Vortrag unter dem Titel „Desinformation und Krieg im digitalen Zeitalter“ gehalten. Er ist noch in der ARD-Audiothek abzurufen.

„Wir sind da in eine technologische Falle gelaufen, es geht nur noch darum, Emotionen zu wecken, zu halten und zwar möglichst gezielt.“ Rieger kommt zu dem Ergebnis, dass die Sozialen Medien ein Irrtum sind, und dass es gilt, sie zu zerschlagen.
Zunächst führt er den Zustand der sozialen Medien dogmengeschichtlich auf den Postmodernismus zurück, der alles in Frage stellt, alles in immer kleiner Schnipsel auflöst, bis nur noch „ideeller Sand“ übrig bleibt. Da nichts Neues eintritt, die Sachen, „die wichtig sind“ unterschlagen werden, ist der Diskurs-Raum zerrüttet. Die Algorithmen, die nach Werbegesichtspunkten nur am meisten gesuchte Inhalte in einer rasenden Geschwindigkeit verstärken. Damit wird die Lüge, die Diskreditierung von Einzelpersonen zum Normalfall.
Rieger ist exemplarisch für eine Position, die kritisch die Sozialen Medien zu hinterfragen versucht, aber in ahistorischer Hilflosigkeit verharrt. Zentral für seine Argumentation sind einmal die normativen Setzungen (Wichtige Sachen – Nebensächlichkeiten, die ablenken und zur Manipulation führen), die seltsam aus der Zeit gefallen scheinen. Zum anderen ist Kern seiner Argumentation der Status eines technologischen Mediums als „Irrtum“, wobei Wahrheit dann die Nichtexistenz oder Auflösung ist. Vielleicht ist aber die Furcht zu irren, schon der Irrtum selbst. Und der Wahrheit, sofern sie nicht ideologisch von einer religiösen oder weltlichen Kanzel verkündet wird, kann schließlich nur in einem iterativen Prozess angenähert werden.

Ahistorisch ist diese Position insofern, als alle Technologieschübe mit ideellen Verwerfungen einhergingen. Die Erfolgsgeschichte de Buchdrucks geht nicht allein auf den Druck der Bibel zurück, sondern auf Flugblätter und Flugschriften, die zwar auch über Naturereignisse, gesellschaftliche Vorkommnisse oder politische Geschehnisse informierten, aber auch eine grenzenlose politische Polemik transportierten, die der Desinformation unserer Zeit nichts nachsteht: Luther als siebenköpfiges Ungeheuer, der Papst als Esel und Antichrist.

Es fehlt das Subjekt: Jeder, der an Sozialen Medien teilnimmt, hat es in der Hand, in seinem Bereich diskursive Verhaltensformen einzufordern. Dass dies unabhängig der Medienform zur Zeit nicht geschieht, persönliche Angriffe, Diffamierungen und Ausgrenzungen an der Tagesordnung sind, und Mordgelüste als Satire verharmlost werden, hat nichts mit der Medienform zu tun.

Von den vielen sinnvollen Einsätzen Sozialer Medien ist jüngst Twitter als historisches Story-Tool zu erwähnen. Es macht  nicht nur eine  historische chronologische Abfolge zugänglich, sondern hebt auch eine Menge an Informationen und medialen Schätzen.
Der Krieg von 1870 „live“ auf Twitter
@1914tweets: Tweets aus dem Ersten Weltkrieg

Der Einfluss von Social Bots auf Wahlen: The Failure of Social Bots Research

Veröffentlicht am

Michael Kreil, data  scientist, data  Journalist und open  data  activist, hat untersucht, ob tatsächlich Social Bots Wahlen von Donald Trump und den Brexit beeinflusst haben. Vortrag und Materialien hierzu hat er auf Github zur Verfügung gestellt: The Army that Never Existed: The Failure of Social Bots Research .video, slides, graphics, code, data and links by Michael Kreil. (November 2019) Hierzu untersucht er die Untersuchungen dreier Forschungsgruppen, auf die diese These zurückgehen: Comprop/Oxford: »Computational Propaganda Research Project« of Oxford University, Southern California/Indiana: Work of Emilio Ferrara (University of Southern California) and Alessandro Flammini (Indiana University), Berkeley/Swansea: Work of Oleksandr Talavera and Tho Pham (Swansea University) and Yuriy Gorodnichenko (University of California at Berkeley).

Er kommt zu dem Ergebnis, dass alle drei schwere wissenschaftliche Mängel aufweisen. Insbesondere werden Spam und normale Tweets falsch als politische Social Bots eingeordnet:
„Social Bot research is scientifically inaccurate on all levels.
In the last years the claim that “Social bots influenced elections” has spread widely. This theory can be fully explained by serious scientific mistakes made by researchers.
All the papers about social bots have to be reviewed again and have to be revoked if necessary.
This includes all other research from all other groups that have based their research on these flawed methods.
Do social bots exist? Probably. However, there is no evidence that they exist in large numbers, have influenced elections in any way or caused any other sort of problems.“

Er fordert statt der Schuldzuweisung an Social Bots eine politische Analyse: „Other reasons must be considered as potential causes for the election of Donald Trump, Brexit, the rise of the AfD in Germany and other similar issues: Outdated electoral systems, gerrymandering, the crisis of media, an easier rise of social movements through social media, right-wing narratives, and especially racism as a mass phenomenon are among the contemporary dynamics that should be studied as possible explanations for the main political events of the last years.“

Image und Selbstbild im Datenstrom. Straflust und Strafangst im digitalen Gefängnis

Veröffentlicht am

„Wenn jemand bei Facebook „postet“, dann löst er etwas von sich ab, und unterstellt es der Begutachtung und Bewertung all jener, denen der Einblick gewährt ist.“ Manuel Güntert: Unser digitales Image, in: Hohe Luft 08.01.2020 analysiert die Dichotomie zwischen dem öffentlichen Teil der Selbstdarstellung im Datenstrom, dem digitalen Image, und dem verbliebenen Rest, von deren Teilhabe die digitale Welt ausgeschlossen ist. Selbst dieser Rest ist aber schon durch diese Unterscheidung bestimmt, deren Regeln der Datenfluss setzt und die als digitales Image verinnerlicht werden und zur Selbstkontrolle zum Einsatz kommen.
„So machen anerkannte Eigenschaften und ihre Beziehung zum Image aus jedem Menschen seinen eigenen Gefängniswärter; es ist dies ist ein fundamentaler sozialer Zwang, auch dann, wenn ein Mensch seine Zelle gerne mag. Der digitale Fluss steht so für die unumgängliche körperlose Verkörperung der je eigenen Unterwerfung unter die je Anderen. Dabei ist jeder Einzelne immer sowohl Beobachter wie auch Beobachteter und dadurch immer sowohl Unterwerfer wie auch Unterworfener.“
Dieses digitale Gefängnis übt den Häftling in ein „Modell des Gehorsams“ ein, wenngleich die freie Ausgestaltung der Zelle die Fiktion von Individualität enthält. Der Datenfluss, dem „verinnerlichte Beobachtung zwingend vorgängig ist“, wirkt so massiv auf den Einzelnen ein, prägt den „digitalisierten Beobachter in ihm“
„Insofern die innere Beobachtung einem den Raum zwar zu Teilen gibt, ihn insgesamt aber eher nimmt, wird über das so generierte digitale Image Transparenz hergestellt: Indem es unser Inneres ausleuchtet, gleicht unser je „individuelles“ digitales Image uns Menschen einander an.“
Die vollständige Herstellung der Homogenität, die Individualität aufgesogen hat, im Datenstrom wird nur dadurch verhindert, dass der Datenstrom seine Fließrichtung ändern kann. „Wiewohl er eine Marginalie ist, kann jeder einzelne Teilhaber diese potentiell umlenken, und sei es nur durch ein einzelnes, immenses Aufsehen erregendes Posting. So beinhaltet der Kampf um Aufmerksamkeit, der dem Posten notwendig innewohnt, immer auch ein Tauziehen, in welche Richtung der Fluss zu fließen hat. Wer sich imstande zeigt, dessen Fließrichtung zu bestimmen, der wirkt auf etwas ein, an dem die je Einzelnen schlechterdings nicht vorbeikommen, wenn sie ihr eigenes digitales Image ausgestalten.“
Allerdings beinhaltet die Abweichung immer das Risiko und die verinnerlichte Angst, Imageeinbußen durch ein Shitstorm zu erleiden. Der digitale Fluss, der „von Straflust und Strafangst durchströmt ist“ wird so im wesentlichen in seiner Fließrichtung gehalten.