Soziale Medien werden fragmentierter

X (Twitter) bewegt sich durch Musks Politik hin zu einem kleineren Informationsraum. Unbewusst bewegen sich auch andere Plattformane wie Reddit oder Discord in die gleiche Richtung. Ethan Zuckerman: Social Media Is Getting Smaller—and More Treacherous. Fragmented and focused social platforms might be good for helping you find a knitting community. But extremist groups are also using them to normalize darker content. Wired 24.01.2024 analysiert, was dies für Folgen hat. In großen Informationsräumen erreichen Botschaften auch Neubekehrte und Influencer können Zielgruppen aufbauen. Es handelt sich aber nicht um konsensuale, sondern konfliktreiche Räume, in denen unterschiedliche Haltungen und Meinungen aufeinanderprallen. Kleinere Räume sind für homogene Interessengruppen wie z.B. Selbsthilfegruppen interessant. Aber diese Fragmentierung der öffentlichen Sphäre kann gravierende Folgen haben. “These conversations, insulated from outside scrutiny, can normalize extreme points of view and lead people deeper into dark topics they expressed a passing interest in.”

Social Media transparent

Analytische Daten zu Social-Websites (Youtube, Twitch, Facebook, Instagram, Twitter, Tik Tok, Dailymotion, Odysee, Trovo, Mixer, DLife, StoryFire) liefert die Webseite SocialBlade. Insbesondere werden Views, Abonnenten und Ranglisten angezeigt.

Mastodon – Rettung oder Verhängnis?

Ist Mastodon Rettung sozialer Kommunikation oder das nächste Verhängnis? Hendrik Wieduwilt: Schlimmer als Twitter. Elon Musk könnte seine Plattform ruinieren. Doch auf den möglichen Nachfolger Mastodon hat die Rechtsordnung keine gute Antwort, Frankfurter Allgemeine Zeitung 05.12.2022 (hinter der Bezahlschranke) zeichnet zunächst nach, wie Twitter, das politischste Kommunikationsnetzwerk, durch die Lenkung von Elon Musk sich von einer offenen Plattform “zu einem Klub” entwickelt, in dem zunehmend Fake News und extreme Positionen sich bestätigen. Immerhin könnte aber diese zentrale und kommerzielle Platform rechtlich eingehegt werden. Das dezentrale Netzwerk Mastodon als Föderation von Servern bietet sich als Alternative zu Twitter an. Wieduwilt weist allerdings darauf hin, dass rechtliche Regulierung zur Zeit weder durch das deutsche Netzwerkdurchsetzungsgesetz noch das EU Digitale-Dienste-Gesetz möglich ist: “Die erforderlichen Mindestgräßen an Nutzerzahlen oder Mitarbeitern erreicht bisher keine der Mastodon-Instanzen. Selbst wenn sich das änderte, müsste jeweils ein Ansprechpartner gefunden werden. Und gegen ausländische Instanzen hülfe das Regelwerk ohnehin nicht weiter.” Der digitale Denkraum zerfällt in einzelne Segmente, die von den Administratoren der Server gestaltet, aber nicht moderiert werden. Diese Gestaltung kann aber jederzeit umschlagen aktivistische Lenkung, indem z.B. unliebsame Server blockiert werden.

Herrschaft der Bots

Andrian Kreye: Ihr seid nicht real. Bots können im Internet Falschnachrichten texten, Kreditkarten abfangen, Börsenkurse, Preise sowie Meinungen manipulieren. Und es gibt davon viel mehr, als bekannt ist, Süddeutsche Zeitung 07.04.2022 (hinter der Bezahlschranke) und 15.07.2022 in der Papierausgabe untersucht den Anteil der Bots auf Twitter sind. Er zitiert die Münchner Cybersecurity-Firma Fraudo.com, wonach bei Twitter 17 %, auf Tiktok 78%, auf Reddit 80% Bots. “Wenn man das komplette Internet mit allen Plattformen, Webseiten und Netzwerken betrachtet, beträgt der Anteil der Roboter unter den Besuchern derzeit 56 Prozent. Es sind also mehr Roboter im Netz unterwegs als Menschen.” Betrug für die Werbeindustrie wird generiert, indem eine falsche Webseite angelegt wird, bei der Bots Publikumsverkehr vortäuschen. Die destruktive Wirkung auf den politischen Diskurs durch simple Slogans befördern Populisten und Desinformation.
Auf der Seite sparktoro.com kann man mit dem Tool Fake Followers Audit die eigenen Twitter-Konten daraufhin untersuchen, welcher Anteil Bots unter den Followern sind. Bei Joe Biden sind dies z.B. 50,6 %

Twitter-Datenanalyse Diskussion Corona

Dana Hajek: Wir gegen die, Frankfurter Allgemeine Zeitung 17.02.2022 legt eine statistisch und grafisch aufbereitete Datenanalyse vor. Analysiert wurden alle deutschsprachigen Tweets, Retweets und Replys zwischen dem 1. November 2021 und dem 9. Dezember 2021, die den Suchbegriff #Impfung enthalten. Es wird sichtbar, “wie stark die Debatte polarisiert: mit den dichten, sehr engmaschig vernetzten Impfkritikern auf der einen Seite und den loser vernetzten Accounts der Impfbefürworter auf der anderen Seite. Es hat sich eine sprachliche als auch eine thematische Abgrenzung zwischen den Gruppen herausgebildet, obwohl sie denselben Hashtag verwenden. Anders gesagt: Sie streiten nicht miteinander. Sie ignorieren sich.”
Die Analyse konstatiert einen rasanten Zuwachs der Impfkritiker innerhalb eines Jahres, der auf 7 Merkmale zurückzuführen ist. 1. Impfbefürworter agieren “heterogen, weil sie über keine einheitliche politische Agenda verfügen” gegenüber einer thematischen Übereinstimmung bei Impfkritikern. 2. Die Knoten der Impfgegner sind weniger, aber ca. 10 % größer. 3. Impfkritiker besetzen “Knoten, die eine extrem hohe Zahl von Verbindungen aufweisen” (Hubs) 4. Die Vernetzung der Impfkritiker konzentriert sich auf einen Kern von 247 Accounts. 5. Impfkritiker verwenden zur Verbesserung ihrer Sichtbarkeit diverse Hashtags. 6. “Im Kern der Impfkritiker befinden sich die zehn aktivsten Nutzer des gesamten Netzwerks.” 7. Impfbefürworter betonen den Nutzen der Corona-Impfung, Kritiker verbreiten diverse Narrative. Hajek stellt eine “zweigeteilte Welt” fest, in der es unklar ist, wie Wissenschaftskommunikation aufklärerisch einwirken kann.

Recherche mit Twitter

In dem Video “Recherche mit Twitter” der Universitätsbibliothek der Freien Universität Berlin werden einfache und erweiterte Suchmöglichkeiten mit verschiedenen Suchoperationen ausführlich erläutert.

Fake News und IWT-Memes erkennen

Die Gruppe Data Science von armasuisse Wissenschaft und Technologie (W+T) und die Zürcher Hochschule für Angewandte Wissenschaften (ZHAW) arbeiten an Algorithmen, mit denen Künstliche Intelligenz gegen Desinformation im Netz eingesetzt werden kann. Gérôme Bovet und Sarah Frei: Künstliche Intelligenz im Einsatz gegen Desinformation in sozialen Netzwerken, in: armafolio 02/2021 beschreiben dabei drei Ansätze, die dabei Natural Language Processing (NLP) einsetzen:
1. Mit Nutzerverhalten in den sozialen Medien (Text- und/ oder Bild) werden Modelle mit sprachlichen und sentimentalen Merkmalen trainiert, die Emotionalität von Information einordnen können. “Das ist wichtig, weil die Verbreitung falscher beziehungsweise radikaler Aussagen oft mit einer hohen Emotionalität des Beitrags einhergeht.” Gegenüber normalen Einsätzen von NLP entsteht bei Twitter die Herausforderungen, “mit wie kurzen Texten das Programm arbeiten soll” (Gérôme Bovet: «Fake News» schneller erkennen, Bundesamt für Rüstung armasuisse 26.10.2020).
2. Erkennung und Klassifizierung von Memes: IWT-Memes (englisch: Image with Text-IWT, deutsch: Bild mit Text), die zur Desinformation eingesetzt werden, sollen unter Einsatz von Convolutional Neural Networks identifiziert und binär klassifiziert in die Kategorien IWT-Meme-Bild bzw. Nicht-IWT-Meme-Bild werden. “Bei der Ermittlung des Inhalts werden durch die Bestimmung des Themas und der Emotionalität des Inhalts Rückschlüsse darauf gezogen, ob es sich um Desinformation handeln könnte oder nicht. Desinformation beinhaltet häufig Themen, welche sozial spaltend wirken und, damit verbunden, negative Gefühle beim Betrachter oder der Betrachterin verstärken können.”
3. Analyse des Kontoverhaltens auf Twitter durch gerichtete Graphen. “Anhand eines solchen Graphen kann ein Algorithmus durch Berechnung verschiedener statistischer Parameter bestimmen, wie sich ein Beitrag in sozialen Netzwerken, in diesem Fall Twitter, verbreitet hat. Zu diesen Parametern gehören der Vernetzungsgrad eines Kontos (wie viele Nutzer und Nutzerinnen dem Konto folgen und wie vielen Nutzern und Nutzerinnen das Konto selbst folgt).” Social Bots weisen dabei ein charakteristisches Verhältnis zwischen Wurzelknoten, Retweets und kurzfristig neu geschaffenen Followern auf.

Theorie des #Hashtags

Andreas Bernard, Professor für Kulturwissenschaften am “Centre for Digital Cultures” der Leuphana-Universität Lüneburg: Theorie des #Hashtags, in: Geschichte der Gegenwart 19.05.2021 

In dem #Hashtag verdichten sich die unterschiedlichen Funktionen von Schlagworten (Wörter oder kurze Phrasen, die einen Sachverhalt prägnant und verkürzt zuspitzen)  und den Schlagwörtern oder Deskriptoren  (inhaltliche Erschließung von Sachverhalten anhand eines kontrollierten Vokabulars) .  Es soll einerseits die Suchbarkeit innerhalb des digitalen Mediums sicherstellen, enthält aber darüber hinaus ein allgemeines “Aufmerksamkeitsversprechen“, das selbst in die analoge Welt ausstrahlt.  “Das # ist also längst kein rein funktionales Sonderzeichen mehr, sondern ein verheißungsvolles gesellschaftliches Symbol. Es steht für die Erzeugung und Anhäufung öffentlicher Aufmerksamkeit.” 

Bernard sieht in diesem “Gestaltungsprinzip von gesellschaftspolitischen Debatten” gleichzeitig ein Strukturproblem. Inhalte und Konflikte und Homogenisierungs- und Nivellierungstendenzen gehen nicht zuletzt auf die Organisation von Debatten mittels des #Hashtags zurück. 

Die Genese des #Hashtags ist einerseits auf den politischen Aktivismus („Hashtag Activism“) (von den herkömmlichen Massenmedien nicht ausreichend repräsentierte Positionen machen sich geltend) und andererseits auf den Einsatz als Marketing-Instrument („Hashtag Marketing“) (Kundenbindung durch selbst gestaltetes mediales Umfeld, was letztendlich auch im Schutz von #Hashtags als Markenzeichen münden kann) zurückzuführen. Die gemeinsame Funktionsweise verweist auf ein strukturelles Problem:

“Hashtags, so könnte man sagen, kommodifizieren die Wörter, die ihnen folgen. Wenn Georg Lukács 1923 im berühmten „Verdinglichungs“-Kapitel von Geschichte des Klassenbewusstseins zeigen wollte, „wie weit der Warenverkehr die herrschende Form des Stoffwechsels einer Gesellschaft ist“, dann gilt diese Diagnose ein knappes Jahrhundert später sicher für die Metabolik der Sozialen Medien. Nicht-katalogisierbare, einzigartige, widerspenstige Bausteine sind in der Logik des Hashtags irrelevant. Anstatt dessen geht es um die größtmögliche Anhäufung von Beiträgen, um die Akkumulation des gleichförmigen, unter identischem Schlagwort subsumierten Aussagenkapitals, das sich in quantifizierbaren Listen wie den „trending topics“ abbilden und weiter vermehren soll.”

“Der Hashtag bringt die verstreuten Stimmen zum kollektiven Ertönen und nimmt ihnen gleichzeitig das, was an ihnen unverrechenbar ist.”

Manipulation in sozialen Medien: die Stratcom/ NATO Untersuchungen

Das Strategic Communication Centre of Excellence (Stratcom) der NATO hat sich in zwei Studien mit der Manipulation in sozialen Medien beschäftigt:
2019: Falling Behind: How Social Media Companies are Failing to Combat Inauthentic Behaviour Online
2020: Social Media Manipulation Report 2020. How Social Media Companies are failing to combat inauthentic behaviour online
In beiden Experimenten wurden reale Social-Media-Konten dazu genommen, sie mit für Fake News und Kommentaren zu fluten.
“To test the ability of Social Media Companies to identify and remove manipulation, we bought engagement on 105 different posts on Facebook, Instagram, Twitter, and YouTube using 11 Russian and 5 European (1 Polish, 2 German, 1 French, 1 Italian) social media manipulation service providers.
At a cost of just 300 EUR, we bought 3 530 comments, 25 750 likes, 20 000 views, and 5 100 followers. By studying the accounts that delivered the purchased manipulation, we were able to dentify 18 739 accounts used to manipulate social media platforms.”
In einem zweiten Schritt wurden diese Fake-Meldungen an die Sozialen Medien gemeldet. Selbst nach mehreren Wochen waren die Einträge nicht entfernt. Während Twitter und Facebook noch reagiert haben, sind Youtube und besonders Tiktok völlig schutzlos. Die Untersuchungen kommen zu dem Ergebnis: “Self-regulation is not working. The manipulation industry is growing year by year. We see no sign that it is becoming substantially more expensive or more difficult to conduct widespread social media manipulation.”
Stratcom empfiehlt daher, nicht nur die sozialen Medien zu regulieren, sondern insbesondere den Markt für die Medien-Manipulation:
“1. Setting new standards and requiring reporting based on more meaningful criteria
2. Establishing independent and well-resourced oversight of the social media platforms
3. Increasing the transparency of the social media platforms
4. Regulating the market for social media manipulation”

Antinomien der Faktenchecks

Adrian Lobe, Auch Faktenprüfer machen Fehler. Social-Media-Plattformen unterziehen Beiträge einem Faktencheck. Doch wer kontrolliert die Prüfinstanz?, Neue Zürcher Zeitung 16.11.2010 Papierausgabe untersucht die Antinomien der Faktenprüfung. Nach der Darstellung von Beispielen der Faktenprüfung bei Facebook und Twitter stellt er fest, dass die Prüfprozesse nicht genügend transparent und nachvollziehbar, vor allem aber kaum korrigierbar sind, weil der als falsch markierte Eintrag im Newsfeed herabgesetzt und der Aufmerksamkeit entzogen wird. “Der apodiktische Hinweis ‘Falsche Informationen – geprüft von unabhängigen Faktencheckern suggeriert, dass der Prüfprozess abgeschlossen sei. Zwar kann man sich den Grund anzeigen lassen. Doch gibt es keine Möglichkeit, dieses Urteil anzufechten oder zu revidieren. Das Prüfsiegel kommt mit einem Absolutheitsanspruch daher, als würde Facebook letztinstanzlich über Fakten richten.” Er zeigt Besonderheiten der Faktenprüfung auf: Satire als Falschnachricht, in der “das Wahre sich gewissermaßen im Unwahren, Übertriebenen ausdrückt”; der Unterschied der Wertung der Tatsachen eines Posts und den dort referierten Äusserungen Dritter; der Wertung eines wahren Berichts über die falschen Aussagen eines Politikers.

Er kommt zu dem Ergebnis: “Das Problem der Faktenchecks besteht darin, dass die Tatsachenprüfung häufig eine Meinungsäußerung darstellt, die im Gewand der Faktizität die Geltung einer ‘richtigen’ Meinung beansprucht. So tragen die Faktenchecks am Ende selbst zu einer Politisierung von Fakten bei, die sie eigentlich vermeiden wollten.”

Seine Hoffnung auf eine “vernunftgeleitete Debatte” enthält allerdings selbst eine Antinomie, denn die Faktenprüfung ist aus der Notwendigkeit entstanden, dass diese eben nicht oder nicht ausreichend vorhanden ist, die Faktenprüfung aber wiederum diese nicht ersetzen kann.

Buchseite 1 von 2
1 2