Theorie des #Hashtags

Veröffentlicht am

Andreas Bernard, Professor für Kulturwissenschaften am „Centre for Digital Cultures“ der Leuphana-Universität Lüneburg: Theorie des #Hashtags, in: Geschichte der Gegenwart 19.05.2021 

In dem #Hashtag verdichten sich die unterschiedlichen Funktionen von Schlagworten (Wörter oder kurze Phrasen, die einen Sachverhalt prägnant und verkürzt zuspitzen)  und den Schlagwörtern oder Deskriptoren  (inhaltliche Erschließung von Sachverhalten anhand eines kontrollierten Vokabulars) .  Es soll einerseits die Suchbarkeit innerhalb des digitalen Mediums sicherstellen, enthält aber darüber hinaus ein allgemeines „Aufmerksamkeitsversprechen„, das selbst in die analoge Welt ausstrahlt.  „Das # ist also längst kein rein funktionales Sonderzeichen mehr, sondern ein verheißungsvolles gesellschaftliches Symbol. Es steht für die Erzeugung und Anhäufung öffentlicher Aufmerksamkeit.“ 

Bernard sieht in diesem „Gestaltungsprinzip von gesellschaftspolitischen Debatten“ gleichzeitig ein Strukturproblem. Inhalte und Konflikte und Homogenisierungs- und Nivellierungstendenzen gehen nicht zuletzt auf die Organisation von Debatten mittels des #Hashtags zurück. 

Die Genese des #Hashtags ist einerseits auf den politischen Aktivismus („Hashtag Activism“) (von den herkömmlichen Massenmedien nicht ausreichend repräsentierte Positionen machen sich geltend) und andererseits auf den Einsatz als Marketing-Instrument („Hashtag Marketing“) (Kundenbindung durch selbst gestaltetes mediales Umfeld, was letztendlich auch im Schutz von #Hashtags als Markenzeichen münden kann) zurückzuführen. Die gemeinsame Funktionsweise verweist auf ein strukturelles Problem:

„Hashtags, so könnte man sagen, kommodifizieren die Wörter, die ihnen folgen. Wenn Georg Lukács 1923 im berühmten „Verdinglichungs“-Kapitel von Geschichte des Klassenbewusstseins zeigen wollte, „wie weit der Warenverkehr die herrschende Form des Stoffwechsels einer Gesellschaft ist“, dann gilt diese Diagnose ein knappes Jahrhundert später sicher für die Metabolik der Sozialen Medien. Nicht-katalogisierbare, einzigartige, widerspenstige Bausteine sind in der Logik des Hashtags irrelevant. Anstatt dessen geht es um die größtmögliche Anhäufung von Beiträgen, um die Akkumulation des gleichförmigen, unter identischem Schlagwort subsumierten Aussagenkapitals, das sich in quantifizierbaren Listen wie den „trending topics“ abbilden und weiter vermehren soll.“

„Der Hashtag bringt die verstreuten Stimmen zum kollektiven Ertönen und nimmt ihnen gleichzeitig das, was an ihnen unverrechenbar ist.“

Like-Button als Mythos und Rechtsproblem

Veröffentlicht am

Christoph Beat Graber: Der Like-Button war gedacht als Hilfe für die Menschen, heraus kam ein Spion. Wie die Nutzung einer Technologie neues Recht entstehen lässt. Neue Zürcher Zeitung 28.06.2021
Graber, Ordinarius für Rechtssoziologie und Medienrecht an der Universität Zürich, zeichnet die Entstehung des Like-Buttons aus dem Bemühen, kommunikative Hürden und Zurückhaltung der Facebook-Nutzer zu überwinden, nach. Diese gemeinwohlorientierte Entwicklung wurde durch die kommerzielle Nutzung, „über den Like-Button genauere Kenntnisse der Nutzerpräferenzen zu erhalten, um so die zugänglich zu machenden Inhalte noch präziser auf das Persönlichkeitsprofil jeder einzelnen Nutzerin zuzuschneiden“, konterkariert.
„Als sich der durchschlagende Erfolg des Plug-in abzuzeichnen begann, publizierte Facebook eine «Copy and paste»-Software, die es nun jeder beliebigen Website ermöglichen würde, jeden Eintrag oder Post mit einem Like-Button zu versehen. Websites, die mit einem Like-Button bestückt sind, transferieren die persönlichen Daten jedes Besuchers an Facebook. Das gilt selbst dann, wenn der Besucher kein Facebook-Mitglied ist und nie auf den Button geklickt hat.“  Von der ursprünglichen Intention bleibt nur noch der Mythos kommunikativer Teilhabe.

Die Kritik im Netz an dem Like-Button verdichtete sich zu einem Gegenmythos „als sozial schädlichen Mechanismus zur Förderung psychologisch manipulativer Werbung“, der letztlich in normativen Erwartungen mündet. Gerichte können allerdings nur dann unbestimmte Gesetzesbegriffe klären, wenn überhaupt schon – wie im Fall des Datenschutzrechts der EU – Regelungen vorliegen. „In anderen Fällen werden wohl neue Gesetze nötig sein. Für Gesetzgeber besteht die grösste Herausforderung darin, dass die Affordanzen vieler technologischer Artefakte oder Systeme versteckt sind. Es sollten somit Verfahren entwickelt werden, die gemeinwohlfreundliche Affordanzen entdecken helfen und deren Stabilisierung fördern. Dazu wären Diskurse zu institutionalisieren, die so inklusiv wie möglich sind und nicht nur Expertinnen, Politiker oder Schulen aller Stufen, sondern auch breite Kreise der Zivilgesellschaft einbeziehen.“

Manipulation in sozialen Medien: die Stratcom/ NATO Untersuchungen

Veröffentlicht am

Das Strategic Communication Centre of Excellence (Stratcom) der NATO hat sich in zwei Studien mit der Manipulation in sozialen Medien beschäftigt:
2019: Falling Behind: How Social Media Companies are Failing to Combat Inauthentic Behaviour Online
2020: Social Media Manipulation Report 2020. How Social Media Companies are failing to combat inauthentic behaviour online
In beiden Experimenten wurden reale Social-Media-Konten dazu genommen, sie mit für Fake News und Kommentaren zu fluten.
„To test the ability of Social Media Companies to identify and remove manipulation, we bought engagement on 105 different posts on Facebook, Instagram, Twitter, and YouTube using 11 Russian and 5 European (1 Polish, 2 German, 1 French, 1 Italian) social media manipulation service providers.
At a cost of just 300 EUR, we bought 3 530 comments, 25 750 likes, 20 000 views, and 5 100 followers. By studying the accounts that delivered the purchased manipulation, we were able to dentify 18 739 accounts used to manipulate social media platforms.“
In einem zweiten Schritt wurden diese Fake-Meldungen an die Sozialen Medien gemeldet. Selbst nach mehreren Wochen waren die Einträge nicht entfernt. Während Twitter und Facebook noch reagiert haben, sind Youtube und besonders Tiktok völlig schutzlos. Die Untersuchungen kommen zu dem Ergebnis: „Self-regulation is not working. The manipulation industry is growing year by year. We see no sign that it is becoming substantially more expensive or more difficult to conduct widespread social media manipulation.“
Stratcom empfiehlt daher, nicht nur die sozialen Medien zu regulieren, sondern insbesondere den Markt für die Medien-Manipulation:
„1. Setting new standards and requiring reporting based on more meaningful criteria
2. Establishing independent and well-resourced oversight of the social media platforms
3. Increasing the transparency of the social media platforms
4. Regulating the market for social media manipulation“

Antinomien der Faktenchecks

Veröffentlicht am

Adrian Lobe, Auch Faktenprüfer machen Fehler. Social-Media-Plattformen unterziehen Beiträge einem Faktencheck. Doch wer kontrolliert die Prüfinstanz?, Neue Zürcher Zeitung 16.11.2010 Papierausgabe untersucht die Antinomien der Faktenprüfung. Nach der Darstellung von Beispielen der Faktenprüfung bei Facebook und Twitter stellt er fest, dass die Prüfprozesse nicht genügend transparent und nachvollziehbar, vor allem aber kaum korrigierbar sind, weil der als falsch markierte Eintrag im Newsfeed herabgesetzt und der Aufmerksamkeit entzogen wird. „Der apodiktische Hinweis ‚Falsche Informationen – geprüft von unabhängigen Faktencheckern suggeriert, dass der Prüfprozess abgeschlossen sei. Zwar kann man sich den Grund anzeigen lassen. Doch gibt es keine Möglichkeit, dieses Urteil anzufechten oder zu revidieren. Das Prüfsiegel kommt mit einem Absolutheitsanspruch daher, als würde Facebook letztinstanzlich über Fakten richten.“ Er zeigt Besonderheiten der Faktenprüfung auf: Satire als Falschnachricht, in der „das Wahre sich gewissermaßen im Unwahren, Übertriebenen ausdrückt“; der Unterschied der Wertung der Tatsachen eines Posts und den dort referierten Äusserungen Dritter; der Wertung eines wahren Berichts über die falschen Aussagen eines Politikers.

Er kommt zu dem Ergebnis: „Das Problem der Faktenchecks besteht darin, dass die Tatsachenprüfung häufig eine Meinungsäußerung darstellt, die im Gewand der Faktizität die Geltung einer ‚richtigen‘ Meinung beansprucht. So tragen die Faktenchecks am Ende selbst zu einer Politisierung von Fakten bei, die sie eigentlich vermeiden wollten.“

Seine Hoffnung auf eine „vernunftgeleitete Debatte“ enthält allerdings selbst eine Antinomie, denn die Faktenprüfung ist aus der Notwendigkeit entstanden, dass diese eben nicht oder nicht ausreichend vorhanden ist, die Faktenprüfung aber wiederum diese nicht ersetzen kann.

Sind Soziale Medien ein Irrtum?

Veröffentlicht am

Frank Rieger, Sprecher des Chaos Computer Clubs und Mitautor des Buchs „Cyberwar: Die Gefahr aus dem Netz. Wer uns bedroht und wie wir uns wehren können“, hat am 12. November 2019 in der Polytechnischen Gesellschaft in Frankfurt am Main einen Vortrag unter dem Titel „Desinformation und Krieg im digitalen Zeitalter“ gehalten. Er ist noch in der ARD-Audiothek abzurufen.

„Wir sind da in eine technologische Falle gelaufen, es geht nur noch darum, Emotionen zu wecken, zu halten und zwar möglichst gezielt.“ Rieger kommt zu dem Ergebnis, dass die Sozialen Medien ein Irrtum sind, und dass es gilt, sie zu zerschlagen.
Zunächst führt er den Zustand der sozialen Medien dogmengeschichtlich auf den Postmodernismus zurück, der alles in Frage stellt, alles in immer kleiner Schnipsel auflöst, bis nur noch „ideeller Sand“ übrig bleibt. Da nichts Neues eintritt, die Sachen, „die wichtig sind“ unterschlagen werden, ist der Diskurs-Raum zerrüttet. Die Algorithmen, die nach Werbegesichtspunkten nur am meisten gesuchte Inhalte in einer rasenden Geschwindigkeit verstärken. Damit wird die Lüge, die Diskreditierung von Einzelpersonen zum Normalfall.
Rieger ist exemplarisch für eine Position, die kritisch die Sozialen Medien zu hinterfragen versucht, aber in ahistorischer Hilflosigkeit verharrt. Zentral für seine Argumentation sind einmal die normativen Setzungen (Wichtige Sachen – Nebensächlichkeiten, die ablenken und zur Manipulation führen), die seltsam aus der Zeit gefallen scheinen. Zum anderen ist Kern seiner Argumentation der Status eines technologischen Mediums als „Irrtum“, wobei Wahrheit dann die Nichtexistenz oder Auflösung ist. Vielleicht ist aber die Furcht zu irren, schon der Irrtum selbst. Und der Wahrheit, sofern sie nicht ideologisch von einer religiösen oder weltlichen Kanzel verkündet wird, kann schließlich nur in einem iterativen Prozess angenähert werden.

Ahistorisch ist diese Position insofern, als alle Technologieschübe mit ideellen Verwerfungen einhergingen. Die Erfolgsgeschichte de Buchdrucks geht nicht allein auf den Druck der Bibel zurück, sondern auf Flugblätter und Flugschriften, die zwar auch über Naturereignisse, gesellschaftliche Vorkommnisse oder politische Geschehnisse informierten, aber auch eine grenzenlose politische Polemik transportierten, die der Desinformation unserer Zeit nichts nachsteht: Luther als siebenköpfiges Ungeheuer, der Papst als Esel und Antichrist.

Es fehlt das Subjekt: Jeder, der an Sozialen Medien teilnimmt, hat es in der Hand, in seinem Bereich diskursive Verhaltensformen einzufordern. Dass dies unabhängig der Medienform zur Zeit nicht geschieht, persönliche Angriffe, Diffamierungen und Ausgrenzungen an der Tagesordnung sind, und Mordgelüste als Satire verharmlost werden, hat nichts mit der Medienform zu tun.

Von den vielen sinnvollen Einsätzen Sozialer Medien ist jüngst Twitter als historisches Story-Tool zu erwähnen. Es macht  nicht nur eine  historische chronologische Abfolge zugänglich, sondern hebt auch eine Menge an Informationen und medialen Schätzen.
Der Krieg von 1870 „live“ auf Twitter
@1914tweets: Tweets aus dem Ersten Weltkrieg

Der Einfluss von Social Bots auf Wahlen: The Failure of Social Bots Research

Veröffentlicht am

Michael Kreil, data  scientist, data  Journalist und open  data  activist, hat untersucht, ob tatsächlich Social Bots Wahlen von Donald Trump und den Brexit beeinflusst haben. Vortrag und Materialien hierzu hat er auf Github zur Verfügung gestellt: The Army that Never Existed: The Failure of Social Bots Research .video, slides, graphics, code, data and links by Michael Kreil. (November 2019) Hierzu untersucht er die Untersuchungen dreier Forschungsgruppen, auf die diese These zurückgehen: Comprop/Oxford: »Computational Propaganda Research Project« of Oxford University, Southern California/Indiana: Work of Emilio Ferrara (University of Southern California) and Alessandro Flammini (Indiana University), Berkeley/Swansea: Work of Oleksandr Talavera and Tho Pham (Swansea University) and Yuriy Gorodnichenko (University of California at Berkeley).

Er kommt zu dem Ergebnis, dass alle drei schwere wissenschaftliche Mängel aufweisen. Insbesondere werden Spam und normale Tweets falsch als politische Social Bots eingeordnet:
„Social Bot research is scientifically inaccurate on all levels.
In the last years the claim that “Social bots influenced elections” has spread widely. This theory can be fully explained by serious scientific mistakes made by researchers.
All the papers about social bots have to be reviewed again and have to be revoked if necessary.
This includes all other research from all other groups that have based their research on these flawed methods.
Do social bots exist? Probably. However, there is no evidence that they exist in large numbers, have influenced elections in any way or caused any other sort of problems.“

Er fordert statt der Schuldzuweisung an Social Bots eine politische Analyse: „Other reasons must be considered as potential causes for the election of Donald Trump, Brexit, the rise of the AfD in Germany and other similar issues: Outdated electoral systems, gerrymandering, the crisis of media, an easier rise of social movements through social media, right-wing narratives, and especially racism as a mass phenomenon are among the contemporary dynamics that should be studied as possible explanations for the main political events of the last years.“

Image und Selbstbild im Datenstrom. Straflust und Strafangst im digitalen Gefängnis

Veröffentlicht am

„Wenn jemand bei Facebook „postet“, dann löst er etwas von sich ab, und unterstellt es der Begutachtung und Bewertung all jener, denen der Einblick gewährt ist.“ Manuel Güntert: Unser digitales Image, in: Hohe Luft 08.01.2020 analysiert die Dichotomie zwischen dem öffentlichen Teil der Selbstdarstellung im Datenstrom, dem digitalen Image, und dem verbliebenen Rest, von deren Teilhabe die digitale Welt ausgeschlossen ist. Selbst dieser Rest ist aber schon durch diese Unterscheidung bestimmt, deren Regeln der Datenfluss setzt und die als digitales Image verinnerlicht werden und zur Selbstkontrolle zum Einsatz kommen.
„So machen anerkannte Eigenschaften und ihre Beziehung zum Image aus jedem Menschen seinen eigenen Gefängniswärter; es ist dies ist ein fundamentaler sozialer Zwang, auch dann, wenn ein Mensch seine Zelle gerne mag. Der digitale Fluss steht so für die unumgängliche körperlose Verkörperung der je eigenen Unterwerfung unter die je Anderen. Dabei ist jeder Einzelne immer sowohl Beobachter wie auch Beobachteter und dadurch immer sowohl Unterwerfer wie auch Unterworfener.“
Dieses digitale Gefängnis übt den Häftling in ein „Modell des Gehorsams“ ein, wenngleich die freie Ausgestaltung der Zelle die Fiktion von Individualität enthält. Der Datenfluss, dem „verinnerlichte Beobachtung zwingend vorgängig ist“, wirkt so massiv auf den Einzelnen ein, prägt den „digitalisierten Beobachter in ihm“
„Insofern die innere Beobachtung einem den Raum zwar zu Teilen gibt, ihn insgesamt aber eher nimmt, wird über das so generierte digitale Image Transparenz hergestellt: Indem es unser Inneres ausleuchtet, gleicht unser je „individuelles“ digitales Image uns Menschen einander an.“
Die vollständige Herstellung der Homogenität, die Individualität aufgesogen hat, im Datenstrom wird nur dadurch verhindert, dass der Datenstrom seine Fließrichtung ändern kann. „Wiewohl er eine Marginalie ist, kann jeder einzelne Teilhaber diese potentiell umlenken, und sei es nur durch ein einzelnes, immenses Aufsehen erregendes Posting. So beinhaltet der Kampf um Aufmerksamkeit, der dem Posten notwendig innewohnt, immer auch ein Tauziehen, in welche Richtung der Fluss zu fließen hat. Wer sich imstande zeigt, dessen Fließrichtung zu bestimmen, der wirkt auf etwas ein, an dem die je Einzelnen schlechterdings nicht vorbeikommen, wenn sie ihr eigenes digitales Image ausgestalten.“
Allerdings beinhaltet die Abweichung immer das Risiko und die verinnerlichte Angst, Imageeinbußen durch ein Shitstorm zu erleiden. Der digitale Fluss, der „von Straflust und Strafangst durchströmt ist“ wird so im wesentlichen in seiner Fließrichtung gehalten.