Social Media transparent

Analytische Daten zu Social-Websites (Youtube, Twitch, Facebook, Instagram, Twitter, Tik Tok, Dailymotion, Odysee, Trovo, Mixer, DLife, StoryFire) liefert die Webseite SocialBlade. Insbesondere werden Views, Abonnenten und Ranglisten angezeigt.

Russische Fake News

“Das russische Staatsfernsehen steuert mit gezielten Fehlinformationen die öffentliche Meinung über den Angriff auf die Ukraine. Doch wie genau wird hier gelogen? Das Team von „TV Rain“ um Moderatorin Masha Borzunova entschlüsselt dies mit „Fake News – Russische Propaganda für Anfänger“ in der ARTE-Mediathek und auf YouTube auch für ein deutsches Publikum. In aufwendig produzierten kurzen Episoden mit Einspielern aus dem russischen TV werden die größten Lügen auf pointierte Weise entlarvt.”
Internetadresse: arte.tv/fakenews

Youtube Transcript und Summary

Bei den meisten Youtube Videos kann man sich mit dem Menü unten rechts ein Transcript anzeigen lassen. Die Seite http://youtubetranscript.com/ ermöglicht jetzt die Anzeige des Transcripts direkt durch die Eingabe der URL. Das Video kann an die Stelle des Transcripts springen.
Die künstliche Intelligenz von ChatGPT https://chat.openai.com/chat ermöglicht es, eine Zusammenfassung dieses Transcripts zu erstellen. In das Eingabefeld muss Summary und anschließend der Text in Anführungszeichen angegeben werden. Die Zusammenfassung funktioniert auch bei allen anderen Texten sowohl in englisch als auch in deutsch. Die Zusammenfassung wird in englisch ausgegeben.

Ende der sozialen Medien

Severin Pomsel: Das Ende der sozialen Netzwerke – Facebook, Instagram und Co. sind zum Massenmedium geworden. Facebook und Instagram passen ihre Algorithmen an: Der eigene Freundeskreis wird immer unwichtiger. Der soziale Austausch ist längst dem passiven Medienkonsum gewichen. Neue Zürcher Zeitung 06.08.2022 (hinter der Registrierschranke) sieht in der Änderung der Algorithmen von Facebook und Instagram einen grundsätzlichen Paradigmenwandel. Das klassische soziale Netzwerk, in dem Inhalte mit Freunden geteilt werden und diese mit Kommentaren und Likes reagieren, ist schrittweise verändert worden zunächst durch die Ablösung des chronologischen Newsfeed durch das Beliebtheitskriterium und dem damit eingehergehenden Bedeutungsverlust des engsten Freundeskreises. Jetzt setzt sich die Logik von Youtube und Tiktok durch: Nutzer produzieren Inhalte, die nach Algorithmen für die Konsumenten ausgewählt und durch deren Nutzerverhalten optimiert werden. Nicht die Vernetzung, sondern der Konsum von Inhalten steht im Vordergrund.
“‘Sozial’ sind die Netzwerke heute nicht mehr. Und an die Stelle des Netzwerks ist ein `Verteilzentrum’ getreten. Aus den Plattformen sind digitale Massenmedien geworden. Sendestationen mit einem unendlichen Pool an Inhalten, die jedem Nutzer ein massgeschneidertes Programm zusammenstellen.”

Youtube Urheberrechtsalgorithmus

Moritz Kaufmann: Dieser Innerschweizer ist der Chefaufseher von Youtube. Fabio Magagnas Algorithmus scannt jedes Video auf Copyright-Verletzungen. Dafür gewann er einen Emmy – erntet aber auch viel Kritik. NZZ am Sonntag 02.07.2022 (hinter der Registrierschranke) beschreibt, wie Youtube Content-ID einsetzt. “Dieses Programm vergleicht in Bruchteilen Referenzdateien – und wird dabei immer ausgefeilter. Youtube nimmt wöchentlich Änderungen am Algorithmus vor.” Wird eine unberechtigte Nutzung von urheberrechtlich geschütztem Material festgestellt, wird die Rechteinhaber informatiert. “Diese können dann entscheiden: das Material freigeben, es sperren, oder – und dafür entscheiden sich die meisten – daran verdienen.”

Nachrichtenmüdigkeit – Fatigue

Das Reuters Institute, eine britische Denkfabrik der Universität Oxford, die sich hauptsächlich aus Drittmitteln finanziert, hat ihren jährlichen Bericht 2022 vorgelegt. 92.000 Menschen auf sechs Kontinenten wurden befragt. Die wichtigsten Ergebnisse:
– Bei bis zu einem Drittel der Menschen (teilweise in Brasilien 54 Prozent und Großbritannien 46 Prozent herrscht eine Nachrichtenmüdigkeit (Fatigue) vor: Nachrichten werden entweder bewusst gemieden oder selektiv gemieden
– Das Interesse an Nachrichten geht vor allem bei zwei Gruppen zurück: 1. Jüngere, weniger gut ausgebildete, online aktive Menschen. 2. Menschen, die sich nicht auf neue Angebote des Internet einlassen wollen.
– Jüngere Menschen mit einer Affinität zu sozialen Medien konsumieren Nachrichten eher bei Instagram, TitkTok, Youtube oder Spotify
Bleiben viele Menschen in einem Gefühl der Machtlosigkeit zurück?
“More people are disconnected, interest in news is down, selective news avoidance up, and trust far from a given. The Ukraine crisis, and before it the COVID-19 pandemic, have reminded people of the value of accurate and fair reporting that gets as close to the truth as possible, but we also find evidence that the overwhelming and depressing nature of the news, feelings of powerlessness, and toxic online debates are turning many people away – temporarily or permanently. Paywalls and registration gates may not be helping either, putting further barriers in the way of the content that audiences want to consume, even as they are creating more sustainable businesses for some.”

Digital News Report 2022
Executive Summary
Video Summary
Esther Menhard: Reuters Digital News Report: Mehr Menschen meiden News, netzpolitik.org 17.06.2022

Grenzen der Youtube Netzwerkanalyse

Christina Braun: So isoliert sind Kanäle von Coronaleugner:innen auf YouTube Netzpolitik.org 09.12.2021  bespricht die Netzwerkanalyse von Coronaleugnern auf Youtube des Youtubers Fynn Kröger https://www.youtube.com/watch?v=jXb-zSPjhPI&ab_channel=Ultralativ.
„Startpunkt waren 15 händisch ausgewählte Kanäle aus der deutschen Coronaleugner:innenszene. Dazu zählte Kröger nicht nur Kanäle von Personen, die das Virus selbst leugnen, sondern auch die Gefahren, die von ihm ausgehen….Dann hat Kröger alle YouTube-Kanäle ermittelt, die diese 15 ausgewählten Kanäle abonniert haben oder auf sie in ihrem Profil verweisen. Diesen Daten lassen sich mit der offenen Programmierschnittstelle (API) von YouTube abgreifen. In einem zweiten Durchgang wiederholte er diesen Prozess für alle Kanäle aus der ersten Runde. Nachträglich aussortiert wurden Kleinstkanäle mit weniger als 1.000 Videoaufrufen. Am Ende kam Kröger so auf rund 7.500 Kanäle.“
Kröger kommt zu dem Ergebnis, dass die Kanäle der „Coronaleugner:innen“ ein isoliertes Knäuel bilden:
“Diese konspirativen Kanäle sind nicht, wie sie gerne behaupten, einzelne Leute aus der Mitte der Gesellschaft. Sie sind nicht streuselkuchenartig über das ganze Netzwerk verteilt und normale Mitglieder dieser sozialen Umgebung, nein, die sitzen alle hier auf engstem Raum am Kindertisch. Sie sind im wahrsten Sinne des Wortes Randfiguren, die in dem monothematischsten und am stärksten untereinander und am schwächsten mit anderen Kanälen verbundenen Cluster rumhängen. Dieses Cluster ist das Paradebeispiel einer Echokammer. Eines sozialen Raums, in dem die eigene Meinung nur gespiegelt aber nicht herausgefordert wird.”
Bei allem Respekt vor dem Aufwand der Untersuchung, ist das Ergebnis aus mehreren Gründen uninteressant: Er definiert selbst die Kanäle und nimmt sie als eindimensionale Parameter. Der Status des „Abonnements“ wird statisch gesetzt. Inwieweit die Abonnenten andere Informationsquellen nutzen, muss offen bleiben. Ein anderer Datenwissenschaftler sieht entsprechend die Abschottung in Echokammern nicht nachgewiesen an. „Streuselkuchenartig“ meint wohl Normalverteilung, die als Ideal gesetzt wird.
Es bleibt das Ergebnis, dass Personen mit bestimmter Meinung sich häufig Youtube-Videos ansehen, die ihrer Meinung entsprechen. So euphorisch auch die Kommentare unter diesem Video sind: Das ist nichts Neues. Interessant wäre es, wenn wir wüssten, ob Alter, Region, Beruf und Sozialstruktur bei bestimmter Teilhabe eine Rolle spielten, also unabhängige Parameter, und welchen Status Youtube in der Informations- und Unterhaltungswelt der Benutzer hat. Dies lässt sich aber durch eine isolierte Netzwerkanalyse nicht herausbekommen. Insofern kann man auch leider keine politischen Handlungskonsequenzen aus derartigen Untersuchungen ziehen. Es ist nur Infotainment für eine – diesmals anders strukturierte – Community.

Der Staat als Mobbing-Komplize

So sehr die Öffentlichkeit sich auch erhitzt, wenn Hassmails und Mobbing gegen die eigene Person oder zumindest die eigene politische Position gerichtet werden, so zeigt sich  an anderen Fällen, dass eine allgemeine moralische Grundlage fehlt, geschweige denn, dass ein allgemeines konsensuales Instrumentarium dagegen entwickelt wird. Am Fall des Youtubers  Rainer Winkler alias “Drachenlord” zeigt sich exemplarisch das Versagen von Öffentlichkeit, Polizei und Justiz. “Jeden Tag hetzen Internetmobs in Deutschland unschuldige Menschen in die Verzweiflung und noch weiter. Aber noch nie haben sich eine deutsche Staatsanwältin und eine deutsche Richterin faktisch an die Spitze eines hochorganisierten Internetmobs gesetzt. Und anschließend das Opfer gedemütigt, eingesperrt und gebrandmarkt. Genau das aber ist am 21. Oktober 2021 mitten in Deutschland passiert, und damit ist großes Unrecht geschehen.” Dies schreibt Sascha Lobo in einer Kolumne, die im Gehalt dem “J’accuse” von Emile Zola im Fall Dreyfus nichts nachsteht, der aber die Öffentlichkeit als Resonanzkörper abhanden gekommen ist. Sascha Lobo: Ein jahrelanges Martyrium in Deutschland – und niemand hält es auf. Spiegel 27.10.2921

Der Fall soll hier nicht noch einmal dargestellt werden. Der Film von Y-Kollektiv: Drachenlord vs. Hater – wenn Cyber-Mobbing Realität wird, 24.11.2016 ARD-Mediathek gibt einen guten Überblick über die Geschichte. Der Artikel Lars Wienand: “Drachenlords” Hater. Die schlechten Gewinner, t-online 23.10.2021 hat über den Prozess berichtet. Es geht darum, dass eine Meute Mobbing, Beleidigung, Verletzung und letztlich Vernichtung einer Person digital und analog als Spiel betreibt und dass der Staat ihn nicht verteidigt, sondern ihm sogar das Rechts zur Verteidigung abspricht und ihn verurteilt.

“Die bittere Erkenntnis des Falles »Drachenlord« ist: Wenn ein Tausende Köpfe starker Hassmob im Netz beschließt, eine Person fertig zu machen – kann die Bundesrepublik dem nichts entgegensetzen. Schlimmer noch – der Hassmob ist durch die Unwissenheit und den Zynismus von Staatsorganen und der medialen wie sozialmedialen Öffentlichkeit in der Lage, den Staat zum Komplizen zu machen.”

Sascha Lob kommt zu dem Schluss: “Rainer Winkler ist die erste Person in Deutschland, die auf diese Weise mithilfe des Netzes gezielt vernichtet werden soll. Er wird nicht die letzte sein, wenn die Gesellschaft nicht herausfindet, wie Cybermobbing wirkungsvoll eingedämmt werden kann und wenn die Protagonisten nicht massenhaft zur Rechenschaft gezogen werden. Zum Beispiel für die Bildung eines organisierten Online-Hassmobs. Wenn Winkler tatsächlich jahrelang ins Gefängnis gehen wird oder wenn er sich irgendwann das Leben nehmen sollte – dann gibt es konkrete Schuldige.
Nicht nur den Hassmob samt seinen Zuschauern und Schaulustigen, sondern eben auch diejenigen, die sich auf verschiedene Arten an seinem Martyrium beteiligt haben. Oder es zuließen. Oder es für nicht so schlimm hielten. Oder irgendwie unterhaltsam fanden.”

Manipulation in sozialen Medien: die Stratcom/ NATO Untersuchungen

Das Strategic Communication Centre of Excellence (Stratcom) der NATO hat sich in zwei Studien mit der Manipulation in sozialen Medien beschäftigt:
2019: Falling Behind: How Social Media Companies are Failing to Combat Inauthentic Behaviour Online
2020: Social Media Manipulation Report 2020. How Social Media Companies are failing to combat inauthentic behaviour online
In beiden Experimenten wurden reale Social-Media-Konten dazu genommen, sie mit für Fake News und Kommentaren zu fluten.
“To test the ability of Social Media Companies to identify and remove manipulation, we bought engagement on 105 different posts on Facebook, Instagram, Twitter, and YouTube using 11 Russian and 5 European (1 Polish, 2 German, 1 French, 1 Italian) social media manipulation service providers.
At a cost of just 300 EUR, we bought 3 530 comments, 25 750 likes, 20 000 views, and 5 100 followers. By studying the accounts that delivered the purchased manipulation, we were able to dentify 18 739 accounts used to manipulate social media platforms.”
In einem zweiten Schritt wurden diese Fake-Meldungen an die Sozialen Medien gemeldet. Selbst nach mehreren Wochen waren die Einträge nicht entfernt. Während Twitter und Facebook noch reagiert haben, sind Youtube und besonders Tiktok völlig schutzlos. Die Untersuchungen kommen zu dem Ergebnis: “Self-regulation is not working. The manipulation industry is growing year by year. We see no sign that it is becoming substantially more expensive or more difficult to conduct widespread social media manipulation.”
Stratcom empfiehlt daher, nicht nur die sozialen Medien zu regulieren, sondern insbesondere den Markt für die Medien-Manipulation:
“1. Setting new standards and requiring reporting based on more meaningful criteria
2. Establishing independent and well-resourced oversight of the social media platforms
3. Increasing the transparency of the social media platforms
4. Regulating the market for social media manipulation”

Buchseite 1 von 2
1 2