Virales Meme

Veröffentlicht am

„Wie schafft man ein virales Meme? Kognitionswissenschaftlerin Sam Ayele und TikTok-Programmchefin Yasmina Banaszczuk über die die Regeln und Gefahren einer neuen Kommunikationsform, Frankfurter Allgemeine Sonntagszeitung 05.09.2021 Papierausgabe
„Ein Meme (ausgesprochen [miːm], Mehrzahl Memes) ist ein spezieller, kreativ geschaffener Bewusstseinsinhalt, der sich unter Menschen verbreitet. Meist handelt es sich dabei um einen kleinen Medieninhalt, der über das Internet verbreitet wird, wie ein Bild mit einer kurzen prägnanten Aussage. Diese ist in der Regel humoristisch und aufheiternd, manchmal auch satirisch und entsprechend gesellschaftskritisch.[1][2] Memes sind seit vielen Jahren ein bedeutender Teil der Netzkultur.“ so Wikipedia.

Was aber macht das Erfolgrezept eines viralen Memes aus: (Ayele): „Memes, die viral gehen, vereinen in jedem Fall Unvorhersehbarkeit und Unbekanntes. Es muss glaubwürdig und skalierbar sein, die Nutzer ansprechen und einen Mehrwert haben. Dazu muss ein Meme teilbar sein. Die Leute müssen also denken: ‚Das wird meinen Freunden auch gefallen“ und es mit ihnen teilen.
… Ein gutes Meme lässt Lücken, die gefüllt werden müssen. Wie bei einem Puzzle. Es lässt Raum für den Betrachter zur Interaktionen, statt nur hundert Prozent von dem wiederzugeben, was man selbst denkt. Insgesamt etwa 75 Prozent Inhalt, know your memendie anderen 25 muss der Betrachter ausfüllen.

Die Webseite „Know your Meme“ sammelt mit Hilfe einer Wiki-Software Memes aus dem Internet.
https://de.wikipedia.org/wiki/Know_Your_Meme (Wikipedia)
https://knowyourmeme.com/

Theorie des #Hashtags

Veröffentlicht am

Andreas Bernard, Professor für Kulturwissenschaften am „Centre for Digital Cultures“ der Leuphana-Universität Lüneburg: Theorie des #Hashtags, in: Geschichte der Gegenwart 19.05.2021 

In dem #Hashtag verdichten sich die unterschiedlichen Funktionen von Schlagworten (Wörter oder kurze Phrasen, die einen Sachverhalt prägnant und verkürzt zuspitzen)  und den Schlagwörtern oder Deskriptoren  (inhaltliche Erschließung von Sachverhalten anhand eines kontrollierten Vokabulars) .  Es soll einerseits die Suchbarkeit innerhalb des digitalen Mediums sicherstellen, enthält aber darüber hinaus ein allgemeines „Aufmerksamkeitsversprechen„, das selbst in die analoge Welt ausstrahlt.  „Das # ist also längst kein rein funktionales Sonderzeichen mehr, sondern ein verheißungsvolles gesellschaftliches Symbol. Es steht für die Erzeugung und Anhäufung öffentlicher Aufmerksamkeit.“ 

Bernard sieht in diesem „Gestaltungsprinzip von gesellschaftspolitischen Debatten“ gleichzeitig ein Strukturproblem. Inhalte und Konflikte und Homogenisierungs- und Nivellierungstendenzen gehen nicht zuletzt auf die Organisation von Debatten mittels des #Hashtags zurück. 

Die Genese des #Hashtags ist einerseits auf den politischen Aktivismus („Hashtag Activism“) (von den herkömmlichen Massenmedien nicht ausreichend repräsentierte Positionen machen sich geltend) und andererseits auf den Einsatz als Marketing-Instrument („Hashtag Marketing“) (Kundenbindung durch selbst gestaltetes mediales Umfeld, was letztendlich auch im Schutz von #Hashtags als Markenzeichen münden kann) zurückzuführen. Die gemeinsame Funktionsweise verweist auf ein strukturelles Problem:

„Hashtags, so könnte man sagen, kommodifizieren die Wörter, die ihnen folgen. Wenn Georg Lukács 1923 im berühmten „Verdinglichungs“-Kapitel von Geschichte des Klassenbewusstseins zeigen wollte, „wie weit der Warenverkehr die herrschende Form des Stoffwechsels einer Gesellschaft ist“, dann gilt diese Diagnose ein knappes Jahrhundert später sicher für die Metabolik der Sozialen Medien. Nicht-katalogisierbare, einzigartige, widerspenstige Bausteine sind in der Logik des Hashtags irrelevant. Anstatt dessen geht es um die größtmögliche Anhäufung von Beiträgen, um die Akkumulation des gleichförmigen, unter identischem Schlagwort subsumierten Aussagenkapitals, das sich in quantifizierbaren Listen wie den „trending topics“ abbilden und weiter vermehren soll.“

„Der Hashtag bringt die verstreuten Stimmen zum kollektiven Ertönen und nimmt ihnen gleichzeitig das, was an ihnen unverrechenbar ist.“

Like-Button als Mythos und Rechtsproblem

Veröffentlicht am

Christoph Beat Graber: Der Like-Button war gedacht als Hilfe für die Menschen, heraus kam ein Spion. Wie die Nutzung einer Technologie neues Recht entstehen lässt. Neue Zürcher Zeitung 28.06.2021
Graber, Ordinarius für Rechtssoziologie und Medienrecht an der Universität Zürich, zeichnet die Entstehung des Like-Buttons aus dem Bemühen, kommunikative Hürden und Zurückhaltung der Facebook-Nutzer zu überwinden, nach. Diese gemeinwohlorientierte Entwicklung wurde durch die kommerzielle Nutzung, „über den Like-Button genauere Kenntnisse der Nutzerpräferenzen zu erhalten, um so die zugänglich zu machenden Inhalte noch präziser auf das Persönlichkeitsprofil jeder einzelnen Nutzerin zuzuschneiden“, konterkariert.
„Als sich der durchschlagende Erfolg des Plug-in abzuzeichnen begann, publizierte Facebook eine «Copy and paste»-Software, die es nun jeder beliebigen Website ermöglichen würde, jeden Eintrag oder Post mit einem Like-Button zu versehen. Websites, die mit einem Like-Button bestückt sind, transferieren die persönlichen Daten jedes Besuchers an Facebook. Das gilt selbst dann, wenn der Besucher kein Facebook-Mitglied ist und nie auf den Button geklickt hat.“  Von der ursprünglichen Intention bleibt nur noch der Mythos kommunikativer Teilhabe.

Die Kritik im Netz an dem Like-Button verdichtete sich zu einem Gegenmythos „als sozial schädlichen Mechanismus zur Förderung psychologisch manipulativer Werbung“, der letztlich in normativen Erwartungen mündet. Gerichte können allerdings nur dann unbestimmte Gesetzesbegriffe klären, wenn überhaupt schon – wie im Fall des Datenschutzrechts der EU – Regelungen vorliegen. „In anderen Fällen werden wohl neue Gesetze nötig sein. Für Gesetzgeber besteht die grösste Herausforderung darin, dass die Affordanzen vieler technologischer Artefakte oder Systeme versteckt sind. Es sollten somit Verfahren entwickelt werden, die gemeinwohlfreundliche Affordanzen entdecken helfen und deren Stabilisierung fördern. Dazu wären Diskurse zu institutionalisieren, die so inklusiv wie möglich sind und nicht nur Expertinnen, Politiker oder Schulen aller Stufen, sondern auch breite Kreise der Zivilgesellschaft einbeziehen.“

Paradise lost

Veröffentlicht am

Die Vertreibung aus dem digitalen Paradies

Digitale Teilhabe bedeutet, dass man die Dienstleistungen verschiedener Anbieter im digitalen Raum in Anspruch nehmen kann. Google, Facebook, Microsoft, Apple stehen hier exemplarisch für Dienstleister, mit denen ein privatrechtlicher Vertrag geschlossen wird, in dem  deren Teilnahmebedingungen anerkannt werden müssen. Dabei ist oft unklar, ob die dort gespeicherten Daten den Diensten übertragen wurden, also mit den zur Verfügung gestellten Diensten verknüpft sind, oder ob sie noch dem Urheber gehören. Diese Frage stellt sich unabhängig davon, ob dem Benutzer ein Export seiner Daten mit den Mitteln der Software des Dienstes gestattet wird. Auch eine teilweise und zeitweise Lizenzierung, wie Facebook es fordert („Du gibst uns eine nicht-exklusive, übertragbare, unterlizenzierbare, unentgeltliche, weltweite Lizenz für die Nutzung jeglicher IP-Inhalte, die du auf oder im Zusammenhang mit Facebook postest („IP-Lizenz“). Diese IP-Lizenz endet, wenn du deine IP-Inhalte oder dein Konto löscht, außer deine Inhalte wurden mit anderen Nutzern geteilt und diese haben sie nicht gelöscht.“)  ist nur Teil des Problems. Was ist, wenn die Mails, Daten und Multimediadaten nur dort gesichert sind, weil man sie dort – etwa in der Cloud – sicher wähnte oder von verschiedenen Endgeräten nutzen wollte.

Inzwischen häufen sich Fälle, in denen Benutzer aus teilweise nicht ersichtlichen Kriterien von den Diensten ausgeschlossen werden. Dabei ist der Zugriff nicht nur auf die Dienste, sondern auch auf die persönlichen gespeicherten Daten (Mails, Dokumente, Bilder usw.) gesperrt. Im schlimmsten Fall droht ein Verlust der kompletten digitalen Identität mit allen Folgen in der analogen Welt. Gesperrt wird augenscheinlich durch Bots, gegen deren Entscheidung kaum Gegenwehr möglich ist. „Die mächtigsten und reichsten Kommunikationsplattformen der Welt bieten kaum Kommunikationskanäle für Menschen, denen der Zugang zu dieser Infrastruktur verwehrt wird.“ 
Die Folgerung kann nur sein, dass man alle wichtigen Mails und Dokumente zusätzlich zur Speicherung in der Cloud lokal sichert.

Simon Hurtz: Und plötzlich ist das Online-Konto weg. Millionen Menschen legen ihr digitales Leben in die Hände von Facebook oder Google. Wenn die Plattformen den Zugriff sperren, beginnt für viele Betroffene ein Albtraum. Süddeutsche Zeitung 24.03.2921

Jens Berger: Ausgeschlossen aus der schönen neuen Welt Nachdenkseiten 19.03.2021

Günter Born: Digitale Amnesie durch willkürliche Kontensperrungen. Viele Microsoft-Dienste lassen sich nur mit einem Microsoft-Konto verwenden. Sperrt Microsoft ein Konto, wird die digitale Identität, die daran hängt, ausradiert. Für die Betroffenen gibt es keine Möglichkeit, dagegen vorzugehen. Golem 18.08.2020

Jens Herforth: Google Account wurde deaktiviert – In diesem Fall zu Unrecht geschehen Giga 21.03.2013

Rolf Schwartmann: Titanic-Magazin nicht mehr im Play-Store: Von der Google-Knute befreit. web.de 17.02.2021

TITANIC verlässt den Google-„Play Store“ Pressemitteilung 15.02.2021

Manipulation in sozialen Medien: die Stratcom/ NATO Untersuchungen

Veröffentlicht am

Das Strategic Communication Centre of Excellence (Stratcom) der NATO hat sich in zwei Studien mit der Manipulation in sozialen Medien beschäftigt:
2019: Falling Behind: How Social Media Companies are Failing to Combat Inauthentic Behaviour Online
2020: Social Media Manipulation Report 2020. How Social Media Companies are failing to combat inauthentic behaviour online
In beiden Experimenten wurden reale Social-Media-Konten dazu genommen, sie mit für Fake News und Kommentaren zu fluten.
„To test the ability of Social Media Companies to identify and remove manipulation, we bought engagement on 105 different posts on Facebook, Instagram, Twitter, and YouTube using 11 Russian and 5 European (1 Polish, 2 German, 1 French, 1 Italian) social media manipulation service providers.
At a cost of just 300 EUR, we bought 3 530 comments, 25 750 likes, 20 000 views, and 5 100 followers. By studying the accounts that delivered the purchased manipulation, we were able to dentify 18 739 accounts used to manipulate social media platforms.“
In einem zweiten Schritt wurden diese Fake-Meldungen an die Sozialen Medien gemeldet. Selbst nach mehreren Wochen waren die Einträge nicht entfernt. Während Twitter und Facebook noch reagiert haben, sind Youtube und besonders Tiktok völlig schutzlos. Die Untersuchungen kommen zu dem Ergebnis: „Self-regulation is not working. The manipulation industry is growing year by year. We see no sign that it is becoming substantially more expensive or more difficult to conduct widespread social media manipulation.“
Stratcom empfiehlt daher, nicht nur die sozialen Medien zu regulieren, sondern insbesondere den Markt für die Medien-Manipulation:
„1. Setting new standards and requiring reporting based on more meaningful criteria
2. Establishing independent and well-resourced oversight of the social media platforms
3. Increasing the transparency of the social media platforms
4. Regulating the market for social media manipulation“

Das Dilemma der Algorithmen und Daten

Veröffentlicht am

Kai Burkhardt, Kamala Harris. Die Frau, die Google und Facebook zerschlagen kann – wenn sie will, Die Welt 14.12. (hinter der Bezahlschranke) beschreibt, dass Harris aufgrund ihrer Kenntnisse der Tech-Firmen in Kalifornien in der Lage sein könnte, die Internetkonzerne zu deregulieren.

Zunächst geht er davon aus, dass die gesellschaftlichen Schäden, die insbesondere Social Media durch die Methoden der Nutzerführung und Manipulation erzeugt haben, „nicht mehr ohne Weiteres zu reparieren“ sind. „Die politischen Identitäten, die sich in den Resonanzräumen der Internetkonzerne gebildet haben, werden auch nicht einfach in den politischen Mainstream zurückkehren.“
Wer aber könnte die technischen und finanziellen Mittel verfügen, um diesen Prozess zu korrigieren, wenn nicht die Verursacher, die Internetkonzerne selbst? Die verschiedenen Aspekte dieses Dilemmas werden analysiert.
Programmierer zeichnen sich aufgrund ihrer Biographie in der Regel nicht durch gesellschaftliche Empathie aus. Ihre Produkte, die „Algorithmen sind nichts anders als die Verallgemeinerung von Hypothesen und Vorurteilen in den Köpfen von Programmieren.“ Der Programmcode zeigt sich letztlich an den Ergebnissen, der Code selbst aber kann kaum ohne Hilfe künstlicher Intelligenz darauf geprüft werden, was er nicht oder zur Zeit nicht liefert und was er in anderen Konstellationen liefern könnte. „Künstliche Intelligenz kann aufgrund ihrer schieren Komplexität also wiederum nur von einer anderen Künstlichen Intelligenz untersucht werden und da beißt sich nun die Katze in den Schwanz, denn das Ergebnis einer Simulation kann nicht simuliert werden.“ Aber selbst wenn dies gelänge, wären Algorithmen ohne Daten wertlos. Jenseits der von den Internetfirmen selbst erhobenen Daten gerät der Umgang mit Daten durch die Datamining-Firmen, die jegliche Arten von Daten zu Profilen verknüpfen, in eine neue Dimension. Burkhardt sieht eine Chance in einem zentralen „Open-Source-Katasteramt“, „das Datensätze nicht nur verwaltet, sondern auch erforscht und beschreibt, bevor sie an Dritte weitergegeben werden.“ Es wäre möglich, dass sich die Internetkonzerne unter dem politischen Druck einer Zerschlagung ihrer Konzernstrukturen in die Richtung eines anderen Umgangs mit Daten bewegen.

Antinomien der Faktenchecks

Veröffentlicht am

Adrian Lobe, Auch Faktenprüfer machen Fehler. Social-Media-Plattformen unterziehen Beiträge einem Faktencheck. Doch wer kontrolliert die Prüfinstanz?, Neue Zürcher Zeitung 16.11.2010 Papierausgabe untersucht die Antinomien der Faktenprüfung. Nach der Darstellung von Beispielen der Faktenprüfung bei Facebook und Twitter stellt er fest, dass die Prüfprozesse nicht genügend transparent und nachvollziehbar, vor allem aber kaum korrigierbar sind, weil der als falsch markierte Eintrag im Newsfeed herabgesetzt und der Aufmerksamkeit entzogen wird. „Der apodiktische Hinweis ‚Falsche Informationen – geprüft von unabhängigen Faktencheckern suggeriert, dass der Prüfprozess abgeschlossen sei. Zwar kann man sich den Grund anzeigen lassen. Doch gibt es keine Möglichkeit, dieses Urteil anzufechten oder zu revidieren. Das Prüfsiegel kommt mit einem Absolutheitsanspruch daher, als würde Facebook letztinstanzlich über Fakten richten.“ Er zeigt Besonderheiten der Faktenprüfung auf: Satire als Falschnachricht, in der „das Wahre sich gewissermaßen im Unwahren, Übertriebenen ausdrückt“; der Unterschied der Wertung der Tatsachen eines Posts und den dort referierten Äusserungen Dritter; der Wertung eines wahren Berichts über die falschen Aussagen eines Politikers.

Er kommt zu dem Ergebnis: „Das Problem der Faktenchecks besteht darin, dass die Tatsachenprüfung häufig eine Meinungsäußerung darstellt, die im Gewand der Faktizität die Geltung einer ‚richtigen‘ Meinung beansprucht. So tragen die Faktenchecks am Ende selbst zu einer Politisierung von Fakten bei, die sie eigentlich vermeiden wollten.“

Seine Hoffnung auf eine „vernunftgeleitete Debatte“ enthält allerdings selbst eine Antinomie, denn die Faktenprüfung ist aus der Notwendigkeit entstanden, dass diese eben nicht oder nicht ausreichend vorhanden ist, die Faktenprüfung aber wiederum diese nicht ersetzen kann.

Sind Soziale Medien ein Irrtum?

Veröffentlicht am

Frank Rieger, Sprecher des Chaos Computer Clubs und Mitautor des Buchs „Cyberwar: Die Gefahr aus dem Netz. Wer uns bedroht und wie wir uns wehren können“, hat am 12. November 2019 in der Polytechnischen Gesellschaft in Frankfurt am Main einen Vortrag unter dem Titel „Desinformation und Krieg im digitalen Zeitalter“ gehalten. Er ist noch in der ARD-Audiothek abzurufen.

„Wir sind da in eine technologische Falle gelaufen, es geht nur noch darum, Emotionen zu wecken, zu halten und zwar möglichst gezielt.“ Rieger kommt zu dem Ergebnis, dass die Sozialen Medien ein Irrtum sind, und dass es gilt, sie zu zerschlagen.
Zunächst führt er den Zustand der sozialen Medien dogmengeschichtlich auf den Postmodernismus zurück, der alles in Frage stellt, alles in immer kleiner Schnipsel auflöst, bis nur noch „ideeller Sand“ übrig bleibt. Da nichts Neues eintritt, die Sachen, „die wichtig sind“ unterschlagen werden, ist der Diskurs-Raum zerrüttet. Die Algorithmen, die nach Werbegesichtspunkten nur am meisten gesuchte Inhalte in einer rasenden Geschwindigkeit verstärken. Damit wird die Lüge, die Diskreditierung von Einzelpersonen zum Normalfall.
Rieger ist exemplarisch für eine Position, die kritisch die Sozialen Medien zu hinterfragen versucht, aber in ahistorischer Hilflosigkeit verharrt. Zentral für seine Argumentation sind einmal die normativen Setzungen (Wichtige Sachen – Nebensächlichkeiten, die ablenken und zur Manipulation führen), die seltsam aus der Zeit gefallen scheinen. Zum anderen ist Kern seiner Argumentation der Status eines technologischen Mediums als „Irrtum“, wobei Wahrheit dann die Nichtexistenz oder Auflösung ist. Vielleicht ist aber die Furcht zu irren, schon der Irrtum selbst. Und der Wahrheit, sofern sie nicht ideologisch von einer religiösen oder weltlichen Kanzel verkündet wird, kann schließlich nur in einem iterativen Prozess angenähert werden.

Ahistorisch ist diese Position insofern, als alle Technologieschübe mit ideellen Verwerfungen einhergingen. Die Erfolgsgeschichte de Buchdrucks geht nicht allein auf den Druck der Bibel zurück, sondern auf Flugblätter und Flugschriften, die zwar auch über Naturereignisse, gesellschaftliche Vorkommnisse oder politische Geschehnisse informierten, aber auch eine grenzenlose politische Polemik transportierten, die der Desinformation unserer Zeit nichts nachsteht: Luther als siebenköpfiges Ungeheuer, der Papst als Esel und Antichrist.

Es fehlt das Subjekt: Jeder, der an Sozialen Medien teilnimmt, hat es in der Hand, in seinem Bereich diskursive Verhaltensformen einzufordern. Dass dies unabhängig der Medienform zur Zeit nicht geschieht, persönliche Angriffe, Diffamierungen und Ausgrenzungen an der Tagesordnung sind, und Mordgelüste als Satire verharmlost werden, hat nichts mit der Medienform zu tun.

Von den vielen sinnvollen Einsätzen Sozialer Medien ist jüngst Twitter als historisches Story-Tool zu erwähnen. Es macht  nicht nur eine  historische chronologische Abfolge zugänglich, sondern hebt auch eine Menge an Informationen und medialen Schätzen.
Der Krieg von 1870 „live“ auf Twitter
@1914tweets: Tweets aus dem Ersten Weltkrieg

Der Einfluss von Social Bots auf Wahlen: The Failure of Social Bots Research

Veröffentlicht am

Michael Kreil, data  scientist, data  Journalist und open  data  activist, hat untersucht, ob tatsächlich Social Bots Wahlen von Donald Trump und den Brexit beeinflusst haben. Vortrag und Materialien hierzu hat er auf Github zur Verfügung gestellt: The Army that Never Existed: The Failure of Social Bots Research .video, slides, graphics, code, data and links by Michael Kreil. (November 2019) Hierzu untersucht er die Untersuchungen dreier Forschungsgruppen, auf die diese These zurückgehen: Comprop/Oxford: »Computational Propaganda Research Project« of Oxford University, Southern California/Indiana: Work of Emilio Ferrara (University of Southern California) and Alessandro Flammini (Indiana University), Berkeley/Swansea: Work of Oleksandr Talavera and Tho Pham (Swansea University) and Yuriy Gorodnichenko (University of California at Berkeley).

Er kommt zu dem Ergebnis, dass alle drei schwere wissenschaftliche Mängel aufweisen. Insbesondere werden Spam und normale Tweets falsch als politische Social Bots eingeordnet:
„Social Bot research is scientifically inaccurate on all levels.
In the last years the claim that “Social bots influenced elections” has spread widely. This theory can be fully explained by serious scientific mistakes made by researchers.
All the papers about social bots have to be reviewed again and have to be revoked if necessary.
This includes all other research from all other groups that have based their research on these flawed methods.
Do social bots exist? Probably. However, there is no evidence that they exist in large numbers, have influenced elections in any way or caused any other sort of problems.“

Er fordert statt der Schuldzuweisung an Social Bots eine politische Analyse: „Other reasons must be considered as potential causes for the election of Donald Trump, Brexit, the rise of the AfD in Germany and other similar issues: Outdated electoral systems, gerrymandering, the crisis of media, an easier rise of social movements through social media, right-wing narratives, and especially racism as a mass phenomenon are among the contemporary dynamics that should be studied as possible explanations for the main political events of the last years.“

Page 1 of 2
1 2