Technofeudalismus

Michael Moorstedt: Auf dem Weg zum Techno-Feudalismus. Absolute Herrscher, die ihre Launen ausleben und den “Zehnten” kassieren: Plattformunternehmen wie Twitter untergraben die Gesetze des Kapitalismus, Süddeutsche Zeitung 06.11.2022 stellt die Frage, ob sich nicht strukturell etwas geändert hat, was man mit dem “Gedankenbild des Feudalismus” bezeichnen könnte: Statt Kapitalakkumulation durch Produktion zu betreiben, saugen die Plattformen wie Uber, Airbnb und Doordash die zugrundeliegende Ökonomie parasitär aus: “Durch Plattformunternehmen unterwerfen sich Handwerker, Putzfrauen, Hundespaziergänger, Reinigungskräfte einem neuen Mittelsmann, der Kundenbeziehung und Marktzugang kontrolliert. Und während diese Arbeiter früher einen eigenen Verdienst hatten, zieht nun der eigentlich überflüssige Vermittler eine neue Gebühr ein.”
Durch die sozialen Plattformen wie Facebook, Twitter und Youtube sollte der soziale Zusammenhalt durch Austausch verbessert werden. Stattdessen stellen wir Informationen zur Verfügung, die Mehrwert für Plattformen schaffen. Der Zugang zu den so entstandenen Informationen wird uns nur noch selektiv gewährt. Eine neue Kaste ist entstanden. “Diejenigen, die noch über genügend Kapital verfügen, können sich den Zugang zu einem höheren Stand erkaufen. Das Fußvolk dagegen wird in einen überfüllten und schlecht moderierten Inhalte-Slum gepackt, der von den Lehnsherren mit Werbung und Mikrotransaktionen gepflastert wird.”

Ende der sozialen Medien

Severin Pomsel: Das Ende der sozialen Netzwerke – Facebook, Instagram und Co. sind zum Massenmedium geworden. Facebook und Instagram passen ihre Algorithmen an: Der eigene Freundeskreis wird immer unwichtiger. Der soziale Austausch ist längst dem passiven Medienkonsum gewichen. Neue Zürcher Zeitung 06.08.2022 (hinter der Registrierschranke) sieht in der Änderung der Algorithmen von Facebook und Instagram einen grundsätzlichen Paradigmenwandel. Das klassische soziale Netzwerk, in dem Inhalte mit Freunden geteilt werden und diese mit Kommentaren und Likes reagieren, ist schrittweise verändert worden zunächst durch die Ablösung des chronologischen Newsfeed durch das Beliebtheitskriterium und dem damit eingehergehenden Bedeutungsverlust des engsten Freundeskreises. Jetzt setzt sich die Logik von Youtube und Tiktok durch: Nutzer produzieren Inhalte, die nach Algorithmen für die Konsumenten ausgewählt und durch deren Nutzerverhalten optimiert werden. Nicht die Vernetzung, sondern der Konsum von Inhalten steht im Vordergrund.
“‘Sozial’ sind die Netzwerke heute nicht mehr. Und an die Stelle des Netzwerks ist ein `Verteilzentrum’ getreten. Aus den Plattformen sind digitale Massenmedien geworden. Sendestationen mit einem unendlichen Pool an Inhalten, die jedem Nutzer ein massgeschneidertes Programm zusammenstellen.”

Nachrichtenmüdigkeit – Fatigue

Das Reuters Institute, eine britische Denkfabrik der Universität Oxford, die sich hauptsächlich aus Drittmitteln finanziert, hat ihren jährlichen Bericht 2022 vorgelegt. 92.000 Menschen auf sechs Kontinenten wurden befragt. Die wichtigsten Ergebnisse:
– Bei bis zu einem Drittel der Menschen (teilweise in Brasilien 54 Prozent und Großbritannien 46 Prozent herrscht eine Nachrichtenmüdigkeit (Fatigue) vor: Nachrichten werden entweder bewusst gemieden oder selektiv gemieden
– Das Interesse an Nachrichten geht vor allem bei zwei Gruppen zurück: 1. Jüngere, weniger gut ausgebildete, online aktive Menschen. 2. Menschen, die sich nicht auf neue Angebote des Internet einlassen wollen.
– Jüngere Menschen mit einer Affinität zu sozialen Medien konsumieren Nachrichten eher bei Instagram, TitkTok, Youtube oder Spotify
Bleiben viele Menschen in einem Gefühl der Machtlosigkeit zurück?
“More people are disconnected, interest in news is down, selective news avoidance up, and trust far from a given. The Ukraine crisis, and before it the COVID-19 pandemic, have reminded people of the value of accurate and fair reporting that gets as close to the truth as possible, but we also find evidence that the overwhelming and depressing nature of the news, feelings of powerlessness, and toxic online debates are turning many people away – temporarily or permanently. Paywalls and registration gates may not be helping either, putting further barriers in the way of the content that audiences want to consume, even as they are creating more sustainable businesses for some.”

Digital News Report 2022
Executive Summary
Video Summary
Esther Menhard: Reuters Digital News Report: Mehr Menschen meiden News, netzpolitik.org 17.06.2022

Wie Tik Tok Gedanken liest

Die New York Times hat Zugang zu einem internen Dokument “Tik Tok Algo 101” erhalten, in dem Mitarbeitern von Tik Tok der Algorithmus zur Benutzersteuerung erläutert wird: Ben Smith: How TikTok reads your mind. The New York Times 05.12.2021  Als vier Hauptziele des Algorithmus werden definiert Benutzerwert, langfristiger Benutzerwert, Schöpferwert und Plattformwert. Der Algorithmus selbst fasst das Benutzerverhalten in vier Parametern zusammen: Likes, Kommentare, Spielzeit und der Hinweis, dass das Video gespielt wurde. Vermieden werden soll ferner, dass Langweile durch immer gleiche Videos, präferiert werden sollen lukrative Videos. Allerdings sind dies nun keine sensationellen Enthüllungen. Julian McAuley, Professor für Computer Science an der University of California San Diego, sagt, “that the description of its recommendation engine is “totally reasonable, but traditional stuff.” The company’s edge, he said, comes from combining machine learning with “fantastic volumes of data, highly engaged users, and a setting where users are amenable to consuming algorithmically recommended content (think how few other settings have all of these characteristics!). Not some algorithmic magic.””
Ein Screenshot aus dem Dokument zeigt, dass die Inhaltsmoderatoren nicht nur Zugriff auf öffentlich gepostete Videos haben, sondern auch auf Inhalte, die an Freunde gesendet oder auf das System hochgeladen werden.
Es zeigt sich, dass die Manipulationsalgorithmen nicht hochkomplex sein müssen, sondern vor allem auf der Menge vorhandener Daten, verschiedenen Parametern und der Bereitschaft der Benutzer, sich den Empfehlungen zu unterwerfen, beruhen.

Theorie des #Hashtags

Andreas Bernard, Professor für Kulturwissenschaften am “Centre for Digital Cultures” der Leuphana-Universität Lüneburg: Theorie des #Hashtags, in: Geschichte der Gegenwart 19.05.2021 

In dem #Hashtag verdichten sich die unterschiedlichen Funktionen von Schlagworten (Wörter oder kurze Phrasen, die einen Sachverhalt prägnant und verkürzt zuspitzen)  und den Schlagwörtern oder Deskriptoren  (inhaltliche Erschließung von Sachverhalten anhand eines kontrollierten Vokabulars) .  Es soll einerseits die Suchbarkeit innerhalb des digitalen Mediums sicherstellen, enthält aber darüber hinaus ein allgemeines “Aufmerksamkeitsversprechen“, das selbst in die analoge Welt ausstrahlt.  “Das # ist also längst kein rein funktionales Sonderzeichen mehr, sondern ein verheißungsvolles gesellschaftliches Symbol. Es steht für die Erzeugung und Anhäufung öffentlicher Aufmerksamkeit.” 

Bernard sieht in diesem “Gestaltungsprinzip von gesellschaftspolitischen Debatten” gleichzeitig ein Strukturproblem. Inhalte und Konflikte und Homogenisierungs- und Nivellierungstendenzen gehen nicht zuletzt auf die Organisation von Debatten mittels des #Hashtags zurück. 

Die Genese des #Hashtags ist einerseits auf den politischen Aktivismus („Hashtag Activism“) (von den herkömmlichen Massenmedien nicht ausreichend repräsentierte Positionen machen sich geltend) und andererseits auf den Einsatz als Marketing-Instrument („Hashtag Marketing“) (Kundenbindung durch selbst gestaltetes mediales Umfeld, was letztendlich auch im Schutz von #Hashtags als Markenzeichen münden kann) zurückzuführen. Die gemeinsame Funktionsweise verweist auf ein strukturelles Problem:

“Hashtags, so könnte man sagen, kommodifizieren die Wörter, die ihnen folgen. Wenn Georg Lukács 1923 im berühmten „Verdinglichungs“-Kapitel von Geschichte des Klassenbewusstseins zeigen wollte, „wie weit der Warenverkehr die herrschende Form des Stoffwechsels einer Gesellschaft ist“, dann gilt diese Diagnose ein knappes Jahrhundert später sicher für die Metabolik der Sozialen Medien. Nicht-katalogisierbare, einzigartige, widerspenstige Bausteine sind in der Logik des Hashtags irrelevant. Anstatt dessen geht es um die größtmögliche Anhäufung von Beiträgen, um die Akkumulation des gleichförmigen, unter identischem Schlagwort subsumierten Aussagenkapitals, das sich in quantifizierbaren Listen wie den „trending topics“ abbilden und weiter vermehren soll.”

“Der Hashtag bringt die verstreuten Stimmen zum kollektiven Ertönen und nimmt ihnen gleichzeitig das, was an ihnen unverrechenbar ist.”

Like-Button als Mythos und Rechtsproblem

Christoph Beat Graber: Der Like-Button war gedacht als Hilfe für die Menschen, heraus kam ein Spion. Wie die Nutzung einer Technologie neues Recht entstehen lässt. Neue Zürcher Zeitung 28.06.2021
Graber, Ordinarius für Rechtssoziologie und Medienrecht an der Universität Zürich, zeichnet die Entstehung des Like-Buttons aus dem Bemühen, kommunikative Hürden und Zurückhaltung der Facebook-Nutzer zu überwinden, nach. Diese gemeinwohlorientierte Entwicklung wurde durch die kommerzielle Nutzung, “über den Like-Button genauere Kenntnisse der Nutzerpräferenzen zu erhalten, um so die zugänglich zu machenden Inhalte noch präziser auf das Persönlichkeitsprofil jeder einzelnen Nutzerin zuzuschneiden”, konterkariert.
“Als sich der durchschlagende Erfolg des Plug-in abzuzeichnen begann, publizierte Facebook eine «Copy and paste»-Software, die es nun jeder beliebigen Website ermöglichen würde, jeden Eintrag oder Post mit einem Like-Button zu versehen. Websites, die mit einem Like-Button bestückt sind, transferieren die persönlichen Daten jedes Besuchers an Facebook. Das gilt selbst dann, wenn der Besucher kein Facebook-Mitglied ist und nie auf den Button geklickt hat.”  Von der ursprünglichen Intention bleibt nur noch der Mythos kommunikativer Teilhabe.

Die Kritik im Netz an dem Like-Button verdichtete sich zu einem Gegenmythos “als sozial schädlichen Mechanismus zur Förderung psychologisch manipulativer Werbung”, der letztlich in normativen Erwartungen mündet. Gerichte können allerdings nur dann unbestimmte Gesetzesbegriffe klären, wenn überhaupt schon – wie im Fall des Datenschutzrechts der EU – Regelungen vorliegen. “In anderen Fällen werden wohl neue Gesetze nötig sein. Für Gesetzgeber besteht die grösste Herausforderung darin, dass die Affordanzen vieler technologischer Artefakte oder Systeme versteckt sind. Es sollten somit Verfahren entwickelt werden, die gemeinwohlfreundliche Affordanzen entdecken helfen und deren Stabilisierung fördern. Dazu wären Diskurse zu institutionalisieren, die so inklusiv wie möglich sind und nicht nur Expertinnen, Politiker oder Schulen aller Stufen, sondern auch breite Kreise der Zivilgesellschaft einbeziehen.”

Manipulation in sozialen Medien: die Stratcom/ NATO Untersuchungen

Das Strategic Communication Centre of Excellence (Stratcom) der NATO hat sich in zwei Studien mit der Manipulation in sozialen Medien beschäftigt:
2019: Falling Behind: How Social Media Companies are Failing to Combat Inauthentic Behaviour Online
2020: Social Media Manipulation Report 2020. How Social Media Companies are failing to combat inauthentic behaviour online
In beiden Experimenten wurden reale Social-Media-Konten dazu genommen, sie mit für Fake News und Kommentaren zu fluten.
“To test the ability of Social Media Companies to identify and remove manipulation, we bought engagement on 105 different posts on Facebook, Instagram, Twitter, and YouTube using 11 Russian and 5 European (1 Polish, 2 German, 1 French, 1 Italian) social media manipulation service providers.
At a cost of just 300 EUR, we bought 3 530 comments, 25 750 likes, 20 000 views, and 5 100 followers. By studying the accounts that delivered the purchased manipulation, we were able to dentify 18 739 accounts used to manipulate social media platforms.”
In einem zweiten Schritt wurden diese Fake-Meldungen an die Sozialen Medien gemeldet. Selbst nach mehreren Wochen waren die Einträge nicht entfernt. Während Twitter und Facebook noch reagiert haben, sind Youtube und besonders Tiktok völlig schutzlos. Die Untersuchungen kommen zu dem Ergebnis: “Self-regulation is not working. The manipulation industry is growing year by year. We see no sign that it is becoming substantially more expensive or more difficult to conduct widespread social media manipulation.”
Stratcom empfiehlt daher, nicht nur die sozialen Medien zu regulieren, sondern insbesondere den Markt für die Medien-Manipulation:
“1. Setting new standards and requiring reporting based on more meaningful criteria
2. Establishing independent and well-resourced oversight of the social media platforms
3. Increasing the transparency of the social media platforms
4. Regulating the market for social media manipulation”

Antinomien der Faktenchecks

Adrian Lobe, Auch Faktenprüfer machen Fehler. Social-Media-Plattformen unterziehen Beiträge einem Faktencheck. Doch wer kontrolliert die Prüfinstanz?, Neue Zürcher Zeitung 16.11.2010 Papierausgabe untersucht die Antinomien der Faktenprüfung. Nach der Darstellung von Beispielen der Faktenprüfung bei Facebook und Twitter stellt er fest, dass die Prüfprozesse nicht genügend transparent und nachvollziehbar, vor allem aber kaum korrigierbar sind, weil der als falsch markierte Eintrag im Newsfeed herabgesetzt und der Aufmerksamkeit entzogen wird. “Der apodiktische Hinweis ‘Falsche Informationen – geprüft von unabhängigen Faktencheckern suggeriert, dass der Prüfprozess abgeschlossen sei. Zwar kann man sich den Grund anzeigen lassen. Doch gibt es keine Möglichkeit, dieses Urteil anzufechten oder zu revidieren. Das Prüfsiegel kommt mit einem Absolutheitsanspruch daher, als würde Facebook letztinstanzlich über Fakten richten.” Er zeigt Besonderheiten der Faktenprüfung auf: Satire als Falschnachricht, in der “das Wahre sich gewissermaßen im Unwahren, Übertriebenen ausdrückt”; der Unterschied der Wertung der Tatsachen eines Posts und den dort referierten Äusserungen Dritter; der Wertung eines wahren Berichts über die falschen Aussagen eines Politikers.

Er kommt zu dem Ergebnis: “Das Problem der Faktenchecks besteht darin, dass die Tatsachenprüfung häufig eine Meinungsäußerung darstellt, die im Gewand der Faktizität die Geltung einer ‘richtigen’ Meinung beansprucht. So tragen die Faktenchecks am Ende selbst zu einer Politisierung von Fakten bei, die sie eigentlich vermeiden wollten.”

Seine Hoffnung auf eine “vernunftgeleitete Debatte” enthält allerdings selbst eine Antinomie, denn die Faktenprüfung ist aus der Notwendigkeit entstanden, dass diese eben nicht oder nicht ausreichend vorhanden ist, die Faktenprüfung aber wiederum diese nicht ersetzen kann.

Sind Soziale Medien ein Irrtum?

Frank Rieger, Sprecher des Chaos Computer Clubs und Mitautor des Buchs “Cyberwar: Die Gefahr aus dem Netz. Wer uns bedroht und wie wir uns wehren können”, hat am 12. November 2019 in der Polytechnischen Gesellschaft in Frankfurt am Main einen Vortrag unter dem Titel “Desinformation und Krieg im digitalen Zeitalter” gehalten. Er ist noch in der ARD-Audiothek abzurufen.

„Wir sind da in eine technologische Falle gelaufen, es geht nur noch darum, Emotionen zu wecken, zu halten und zwar möglichst gezielt.“ Rieger kommt zu dem Ergebnis, dass die Sozialen Medien ein Irrtum sind, und dass es gilt, sie zu zerschlagen.
Zunächst führt er den Zustand der sozialen Medien dogmengeschichtlich auf den Postmodernismus zurück, der alles in Frage stellt, alles in immer kleiner Schnipsel auflöst, bis nur noch „ideeller Sand“ übrig bleibt. Da nichts Neues eintritt, die Sachen, „die wichtig sind“ unterschlagen werden, ist der Diskurs-Raum zerrüttet. Die Algorithmen, die nach Werbegesichtspunkten nur am meisten gesuchte Inhalte in einer rasenden Geschwindigkeit verstärken. Damit wird die Lüge, die Diskreditierung von Einzelpersonen zum Normalfall.
Rieger ist exemplarisch für eine Position, die kritisch die Sozialen Medien zu hinterfragen versucht, aber in ahistorischer Hilflosigkeit verharrt. Zentral für seine Argumentation sind einmal die normativen Setzungen (Wichtige Sachen – Nebensächlichkeiten, die ablenken und zur Manipulation führen), die seltsam aus der Zeit gefallen scheinen. Zum anderen ist Kern seiner Argumentation der Status eines technologischen Mediums als „Irrtum“, wobei Wahrheit dann die Nichtexistenz oder Auflösung ist. Vielleicht ist aber die Furcht zu irren, schon der Irrtum selbst. Und der Wahrheit, sofern sie nicht ideologisch von einer religiösen oder weltlichen Kanzel verkündet wird, kann schließlich nur in einem iterativen Prozess angenähert werden.

Ahistorisch ist diese Position insofern, als alle Technologieschübe mit ideellen Verwerfungen einhergingen. Die Erfolgsgeschichte de Buchdrucks geht nicht allein auf den Druck der Bibel zurück, sondern auf Flugblätter und Flugschriften, die zwar auch über Naturereignisse, gesellschaftliche Vorkommnisse oder politische Geschehnisse informierten, aber auch eine grenzenlose politische Polemik transportierten, die der Desinformation unserer Zeit nichts nachsteht: Luther als siebenköpfiges Ungeheuer, der Papst als Esel und Antichrist.

Es fehlt das Subjekt: Jeder, der an Sozialen Medien teilnimmt, hat es in der Hand, in seinem Bereich diskursive Verhaltensformen einzufordern. Dass dies unabhängig der Medienform zur Zeit nicht geschieht, persönliche Angriffe, Diffamierungen und Ausgrenzungen an der Tagesordnung sind, und Mordgelüste als Satire verharmlost werden, hat nichts mit der Medienform zu tun.

Von den vielen sinnvollen Einsätzen Sozialer Medien ist jüngst Twitter als historisches Story-Tool zu erwähnen. Es macht  nicht nur eine  historische chronologische Abfolge zugänglich, sondern hebt auch eine Menge an Informationen und medialen Schätzen.
Der Krieg von 1870 “live” auf Twitter
@1914tweets: Tweets aus dem Ersten Weltkrieg

Der Einfluss von Social Bots auf Wahlen: The Failure of Social Bots Research

Michael Kreil, data  scientist, data  Journalist und open  data  activist, hat untersucht, ob tatsächlich Social Bots Wahlen von Donald Trump und den Brexit beeinflusst haben. Vortrag und Materialien hierzu hat er auf Github zur Verfügung gestellt: The Army that Never Existed: The Failure of Social Bots Research .video, slides, graphics, code, data and links by Michael Kreil. (November 2019) Hierzu untersucht er die Untersuchungen dreier Forschungsgruppen, auf die diese These zurückgehen: Comprop/Oxford: »Computational Propaganda Research Project« of Oxford University, Southern California/Indiana: Work of Emilio Ferrara (University of Southern California) and Alessandro Flammini (Indiana University), Berkeley/Swansea: Work of Oleksandr Talavera and Tho Pham (Swansea University) and Yuriy Gorodnichenko (University of California at Berkeley).

Er kommt zu dem Ergebnis, dass alle drei schwere wissenschaftliche Mängel aufweisen. Insbesondere werden Spam und normale Tweets falsch als politische Social Bots eingeordnet:
“Social Bot research is scientifically inaccurate on all levels.
In the last years the claim that “Social bots influenced elections” has spread widely. This theory can be fully explained by serious scientific mistakes made by researchers.
All the papers about social bots have to be reviewed again and have to be revoked if necessary.
This includes all other research from all other groups that have based their research on these flawed methods.
Do social bots exist? Probably. However, there is no evidence that they exist in large numbers, have influenced elections in any way or caused any other sort of problems.”

Er fordert statt der Schuldzuweisung an Social Bots eine politische Analyse: “Other reasons must be considered as potential causes for the election of Donald Trump, Brexit, the rise of the AfD in Germany and other similar issues: Outdated electoral systems, gerrymandering, the crisis of media, an easier rise of social movements through social media, right-wing narratives, and especially racism as a mass phenomenon are among the contemporary dynamics that should be studied as possible explanations for the main political events of the last years.”

Buchseite 2 von 3
1 2 3