Terminologiedatenbank Pandemology zu Covid 19

Pandemology ist eine Terminologiedatenbank, die Zugang zu COVID-19-Terminologie in mehreren Sprachen bietet.

„With Pandemology we would like to provide a multilingual database for terminology that can help tackle the challenges of COVID-19 (also called coronavirus) and beyond by offering the opportunity to discuss, verify and agree on terminology. Feel free to create new entries – it does not matter whether you are a translator, medical professional or work in another sector.

We hope that this terminological project will enable international collaboration and bring the world closer together in these difficult times. Should you have any questions or suggestions for improvement, we look forward to hearing from you.“

https://pandemology.wordpress.com/

Neue Suchmaschine You

Eine neue Suchmaschine YOU bewertet die Suchergebnisse und klassifiziert sie in Rastern. Suchergebnisse sollen somit nicht linear dargestellt werden, sondern bevorzugte Quellen sollen schnell ausgewählt und als Präferenzen festgehalten werden. In dem Artikel „Suchmaschine You.com: Google-Alternative macht vieles anders. tn3 10.11.2021“ wird dies wie folgt charakterisiert: „Im Gegensatz zur linearen Auflistung von Ergebnissen präsentiert you.com die Suchantwort anders. Ein Gitter zeigt Infoblöcke, die nach Quellen sortiert sind. In der Sektion „You Apps“ können Nutzer die Quellen gliedern und ihnen Relevanz zuordnen. Dabei tauchen hochgestufte Quellen weiter oben auf, neutrale oder heruntergestufte unten. Unter den Plattformen finden sich zum Beispiel Wikipedia, Reddit, Twitter, Linkedin, Tiktok, Youtube, GitHub, Arxiv, Yelp, Goodreads oder Techcrunch. Doch auch reine Mediensektionen wie Videos, Bilder, News und Musik sind möglich. „

Die Suchmaschine ist im Beta-Stadium und nur in englischsprachiger Oberfläche vorhanden. Es wird nicht offengelegt, auf welche Indizes (z.B. von Bing) sie sich stützt oder ob sie sich als Metasuchmaschine versteht. Personendaten werden nicht gespeichert und personenbezogene Werbung soll es nicht geben.

https://you.com/

 

Überwachungskapitalismus und Demokratie

Shoshana Zuboff: Überwachungskapitalismus ist die Mutter aller Krisen Die Welt 30.11.2021 (hinter der Bezahlschranke) bzw. der Originalaufsatz Shoshana Zuboff: You Are the Object of a Secret Extraction Operation New York Times 12.11.2021

Shoshana Zuboff, emeritierte Professorin der Harvard Business School und Autorin des Buchs „Das Zeitalter des Überwachungskapitalismus“ (siehe auch Beitrag in diesem Blog Der digitale Mensch als Kadaver ) fasst zunächst die Ergebnisse ihrer Untersuchungen zusammen. Der Überwachungskapitalismus beruht auf der geheimen Ausbeute und Manipulation menschlicher Daten. Seine Unternehmen „kontrollieren heute den Informationsfluss und die Kommunikation auf der ganzen Welt.“ Informationsräume, die eigentlich in demokratischen Gesellschaft öffentliches Gemeingut sein sollten, „werden zur maximalen Profiterzielung streng von privaten kommerziellen Interessen beherrscht. Das Internet als selbstregulierender Markt hat sich als gescheitertes Experiment erwiesen. Der Überwachungskapitalismus hinterlässt eine Spur sozialer Verwüstung: in der Privatsphäre, die Verschärfung sozialer Ungleichheit, die Vergiftung des Diskurses, die Zerstörung sozialer Normen und die Schwächung demokratischer Institutionen.“

Zuboff skizziert den Aufstieg von Google und Facebook von einem Such- und Kommunikationsinstrument bis hin zur werbegesteuerten Überwachungsökonomie. Das Geschäftsmodell dieser Datenunternehmen hat sich auf andere Geschäftszweige – Daten, Dienstleistungen, Produkte – ausgedehnt und zieht sich in die normale Wirtschaft hinein, die sich ebenfalls Apps und Software bedient, um Daten auszubeuten und als eigenes Unternehmensvermögen zu beanspruchen. Diese Daten werden dann mittels Targeting-Algorithmen zur maximalen Ausbeute und Verhaltenssteuerung eingesetzt. Zuboff sieht „eine demokratische Gegenrevolution“ als einzige Lösung an. Diese darf sich nicht auf nachgelagerte Aspekte wie Moderation von Inhalten, Überwachung illegaler Inhalte oder Zerschlagung der Firmen beschränken und konzentrieren. Sie muss sich vielmehr „auf die Grundlage der Überwachungsökonomie konzentrieren: die geheime Ausbeute menschlicher Daten aus Lebensbereichen, die einst als ‚privat‘ bezeichnet wurden.“ Sie sieht dies als Aufgabe der liberalen Demokratien an, in denen eine „Horizontverschiebung“ im Umgang mit Daten möglich ist. Ansätze hierfür sieht sie in den USA (Kongressanhörung zum Thema Desinformation am 24. März 2021) und Europa (EU Diskussion um den Digital Services Act). Diese sind noch keine Lösung des Problems, aber die Bedeutung liegt in der Veränderung dessen, war die demokratische Gesellschaft bereit ist, zu akzeptieren.

Grenzen der Youtube Netzwerkanalyse

Christina Braun: So isoliert sind Kanäle von Coronaleugner:innen auf YouTube Netzpolitik.org 09.12.2021  bespricht die Netzwerkanalyse von Coronaleugnern auf Youtube des Youtubers Fynn Kröger https://www.youtube.com/watch?v=jXb-zSPjhPI&ab_channel=Ultralativ.
„Startpunkt waren 15 händisch ausgewählte Kanäle aus der deutschen Coronaleugner:innenszene. Dazu zählte Kröger nicht nur Kanäle von Personen, die das Virus selbst leugnen, sondern auch die Gefahren, die von ihm ausgehen….Dann hat Kröger alle YouTube-Kanäle ermittelt, die diese 15 ausgewählten Kanäle abonniert haben oder auf sie in ihrem Profil verweisen. Diesen Daten lassen sich mit der offenen Programmierschnittstelle (API) von YouTube abgreifen. In einem zweiten Durchgang wiederholte er diesen Prozess für alle Kanäle aus der ersten Runde. Nachträglich aussortiert wurden Kleinstkanäle mit weniger als 1.000 Videoaufrufen. Am Ende kam Kröger so auf rund 7.500 Kanäle.“
Kröger kommt zu dem Ergebnis, dass die Kanäle der „Coronaleugner:innen“ ein isoliertes Knäuel bilden:
„Diese konspirativen Kanäle sind nicht, wie sie gerne behaupten, einzelne Leute aus der Mitte der Gesellschaft. Sie sind nicht streuselkuchenartig über das ganze Netzwerk verteilt und normale Mitglieder dieser sozialen Umgebung, nein, die sitzen alle hier auf engstem Raum am Kindertisch. Sie sind im wahrsten Sinne des Wortes Randfiguren, die in dem monothematischsten und am stärksten untereinander und am schwächsten mit anderen Kanälen verbundenen Cluster rumhängen. Dieses Cluster ist das Paradebeispiel einer Echokammer. Eines sozialen Raums, in dem die eigene Meinung nur gespiegelt aber nicht herausgefordert wird.“
Bei allem Respekt vor dem Aufwand der Untersuchung, ist das Ergebnis aus mehreren Gründen uninteressant: Er definiert selbst die Kanäle und nimmt sie als eindimensionale Parameter. Der Status des „Abonnements“ wird statisch gesetzt. Inwieweit die Abonnenten andere Informationsquellen nutzen, muss offen bleiben. Ein anderer Datenwissenschaftler sieht entsprechend die Abschottung in Echokammern nicht nachgewiesen an. „Streuselkuchenartig“ meint wohl Normalverteilung, die als Ideal gesetzt wird.
Es bleibt das Ergebnis, dass Personen mit bestimmter Meinung sich häufig Youtube-Videos ansehen, die ihrer Meinung entsprechen. So euphorisch auch die Kommentare unter diesem Video sind: Das ist nichts Neues. Interessant wäre es, wenn wir wüssten, ob Alter, Region, Beruf und Sozialstruktur bei bestimmter Teilhabe eine Rolle spielten, also unabhängige Parameter, und welchen Status Youtube in der Informations- und Unterhaltungswelt der Benutzer hat. Dies lässt sich aber durch eine isolierte Netzwerkanalyse nicht herausbekommen. Insofern kann man auch leider keine politischen Handlungskonsequenzen aus derartigen Untersuchungen ziehen. Es ist nur Infotainment für eine – diesmals anders strukturierte – Community.

Wie Tik Tok Gedanken liest

Die New York Times hat Zugang zu einem internen Dokument „Tik Tok Algo 101“ erhalten, in dem Mitarbeitern von Tik Tok der Algorithmus zur Benutzersteuerung erläutert wird: Ben Smith: How TikTok reads your mind. The New York Times 05.12.2021  Als vier Hauptziele des Algorithmus werden definiert Benutzerwert, langfristiger Benutzerwert, Schöpferwert und Plattformwert. Der Algorithmus selbst fasst das Benutzerverhalten in vier Parametern zusammen: Likes, Kommentare, Spielzeit und der Hinweis, dass das Video gespielt wurde. Vermieden werden soll ferner, dass Langweile durch immer gleiche Videos, präferiert werden sollen lukrative Videos. Allerdings sind dies nun keine sensationellen Enthüllungen. Julian McAuley, Professor für Computer Science an der University of California San Diego, sagt, „that the description of its recommendation engine is “totally reasonable, but traditional stuff.” The company’s edge, he said, comes from combining machine learning with “fantastic volumes of data, highly engaged users, and a setting where users are amenable to consuming algorithmically recommended content (think how few other settings have all of these characteristics!). Not some algorithmic magic.”“
Ein Screenshot aus dem Dokument zeigt, dass die Inhaltsmoderatoren nicht nur Zugriff auf öffentlich gepostete Videos haben, sondern auch auf Inhalte, die an Freunde gesendet oder auf das System hochgeladen werden.
Es zeigt sich, dass die Manipulationsalgorithmen nicht hochkomplex sein müssen, sondern vor allem auf der Menge vorhandener Daten, verschiedenen Parametern und der Bereitschaft der Benutzer, sich den Empfehlungen zu unterwerfen, beruhen.

Der Staat als Mobbing-Komplize

So sehr die Öffentlichkeit sich auch erhitzt, wenn Hassmails und Mobbing gegen die eigene Person oder zumindest die eigene politische Position gerichtet werden, so zeigt sich  an anderen Fällen, dass eine allgemeine moralische Grundlage fehlt, geschweige denn, dass ein allgemeines konsensuales Instrumentarium dagegen entwickelt wird. Am Fall des Youtubers  Rainer Winkler alias „Drachenlord“ zeigt sich exemplarisch das Versagen von Öffentlichkeit, Polizei und Justiz. „Jeden Tag hetzen Internetmobs in Deutschland unschuldige Menschen in die Verzweiflung und noch weiter. Aber noch nie haben sich eine deutsche Staatsanwältin und eine deutsche Richterin faktisch an die Spitze eines hochorganisierten Internetmobs gesetzt. Und anschließend das Opfer gedemütigt, eingesperrt und gebrandmarkt. Genau das aber ist am 21. Oktober 2021 mitten in Deutschland passiert, und damit ist großes Unrecht geschehen.“ Dies schreibt Sascha Lobo in einer Kolumne, die im Gehalt dem „J’accuse“ von Emile Zola im Fall Dreyfus nichts nachsteht, der aber die Öffentlichkeit als Resonanzkörper abhanden gekommen ist. Sascha Lobo: Ein jahrelanges Martyrium in Deutschland – und niemand hält es auf. Spiegel 27.10.2921

Der Fall soll hier nicht noch einmal dargestellt werden. Der Film von Y-Kollektiv: Drachenlord vs. Hater – wenn Cyber-Mobbing Realität wird, 24.11.2016 ARD-Mediathek gibt einen guten Überblick über die Geschichte. Der Artikel Lars Wienand: „Drachenlords“ Hater. Die schlechten Gewinner, t-online 23.10.2021 hat über den Prozess berichtet. Es geht darum, dass eine Meute Mobbing, Beleidigung, Verletzung und letztlich Vernichtung einer Person digital und analog als Spiel betreibt und dass der Staat ihn nicht verteidigt, sondern ihm sogar das Rechts zur Verteidigung abspricht und ihn verurteilt.

„Die bittere Erkenntnis des Falles »Drachenlord« ist: Wenn ein Tausende Köpfe starker Hassmob im Netz beschließt, eine Person fertig zu machen – kann die Bundesrepublik dem nichts entgegensetzen. Schlimmer noch – der Hassmob ist durch die Unwissenheit und den Zynismus von Staatsorganen und der medialen wie sozialmedialen Öffentlichkeit in der Lage, den Staat zum Komplizen zu machen.“

Sascha Lob kommt zu dem Schluss: „Rainer Winkler ist die erste Person in Deutschland, die auf diese Weise mithilfe des Netzes gezielt vernichtet werden soll. Er wird nicht die letzte sein, wenn die Gesellschaft nicht herausfindet, wie Cybermobbing wirkungsvoll eingedämmt werden kann und wenn die Protagonisten nicht massenhaft zur Rechenschaft gezogen werden. Zum Beispiel für die Bildung eines organisierten Online-Hassmobs. Wenn Winkler tatsächlich jahrelang ins Gefängnis gehen wird oder wenn er sich irgendwann das Leben nehmen sollte – dann gibt es konkrete Schuldige.
Nicht nur den Hassmob samt seinen Zuschauern und Schaulustigen, sondern eben auch diejenigen, die sich auf verschiedene Arten an seinem Martyrium beteiligt haben. Oder es zuließen. Oder es für nicht so schlimm hielten. Oder irgendwie unterhaltsam fanden.“

Sentiment Analyzer in Musik-Streamingdiensten

Andrian Kreye: Lasst mich in Ruhe. Mal bin ich traurig, mal bald taub: Wie Musik-Streamingdienste uns auslesen und leider vor allem: bevormunden, Süddeutsche Zeitung 03.12.2021 (hinter der Bezahlschranke) beschreibt, wie Algorithmen, sogenannte „Sentiment Analyzer“ die psychische Verfassung der Kunden von Internetdiensten analysiert. Die textbasierten Programme werten „Posts oder Sucheingaben mit einem System aus Reiz- und Schlüsselwörtern in Kombination mit den Zustimmung- und Ablehnungssignalen in den Newsfeeds oder auch den Suchergebnissen“ aus. Noch stärker in die Psyche blickt die Sentimentanalyse in der Musik. Die Data Scientistin  Lowri Williams hat unter der Verwendung der Spotify for Developers API (Application Programming Interface) für Web ein Projekt Spotify Sentiment Analysis gestartet. Die Analyse der verschiedenen Parameter führt zu einem Schlüsselwert, der „Valence„. „Ein Begriff aus der Psychologie, der mit einem Wert zwischen null und eins festlegt, ob etwas eher fröhlich (positiv) oder traurig (negativ) ist.“ Entsprechend dem „real-time context targeting“ kann Werbung entsprechend dem Sentiment eingespielt werden. Williams hat die Parameter und die Analyse-Algorithmen, die sie mit Python entwickelt hat, in einem Aufsatz vorgestellt: Lowri Williams: Spotify Sentiment Analysis. Applying sentiment analysis to song lyrics from your Spotify playlist, Towards data science 20.05.2020

Die Ökosünden der Digitalindustrie

Guillaume Pitron: Klimakiller Tiktok. Die Ökosünden der Digitalindustrie, Le Monde diplomatique 07.10.2021 konfrontiert die „Überzeugung, dass die große digitale Transformation zum Wohl unserer Erde geschieht“ mit den Fakten. Zunächst zeigt er in einer Grafik das Periodensystem eines Smartphones, d.h. welche Elemente der Herstellung verbraucht werden. „Die globale Digitalindustrie verbraucht so viel Wasser, Rohstoffe und Energie, dass ihr ökologischer Fußabdruck dreimal so groß ist wie der von Ländern wie Frankreich oder Großbritannien. Die digitalen Technologien verbrauchen inzwischen ein Zehntel des weltweit erzeugten Stroms und sind für fast 4 Prozent des weltweiten CO2-Ausstoßes verantwortlich – knapp doppelt so viel wie der weltweite zivile Luftverkehr.“
Nicht nur die materielle Herstellung der Chips, Computer und Smartphone ist dabei allein entscheidend. Wichtiger noch ist der Prozess der Speicherung in redundanten, gekühlten Rechenzentren und der Prozess des Datenaustausch, der Kommunikation und ihrer Sicherung, in der sich Computerprogramme etwa als Schädlingsverbreiter und -verhinderer gegenseitig kontrollieren. Um für Auslastungsspitzen gerüstet zu, laufen die Rechenzentrum nur bis zu 60% ihrer Kapazität, andere Untersuchungen haben ergeben, dass bis zu 90% des Stromverbrauchs verschwendet werden. „Die Digitalisierung hat unseren materiellen Fußabdruck weitgehend unbemerkt explosionsartig vergrößert. Durch die Milliarden Server, Antennen, Router und LAN-Netzwerke sind die vermeintlich ‚dematerialisierten‘ Technologien nicht nur Rohstoffverbraucher, sie wachsen sich mittlerweile zu einem der materialintensivsten Phänomene aller Zeiten aus.“
Die automatisierte Kommunikation von Computern und Objekten führt zu der Frage, „ob Roboter dereinst einen größeren ökologischen Fußabdruck hinterlassen als der Mensch„: Trolle, Botnets, Spambots, Bitcoin & Co, Internet der Dinge, automatisierte Fonds in der Finanzwelt bis hin zu autonom fahrenden Autos. Pitron weist auf den Widerspruch der Fridays-for-Future Aktivisten hin, „die gegen Fleischkonsum, Plastikverbrauch und Flugreisen revoltieren. Andererseits macht diese Kohorte viel intensiveren Gebrauch von e-Commerce, So­cial-­Media-Apps und Onlinespielen. Sie schwärmt für Internetvideos und kennt keine andere als die Hightechwelt.“  Durch die Ignorierung der Umweltsünden der Digitalisierung tragen sie selbst den Keim des Verfalls mit sich.

Der neue digitale Deal

Francesca Bria: Wir brauchen einen neuen Deal. Frankfurter Allgemeine Sonntagszeitung Papierausgabe 26.09.2021 und online hinter der Bezahlschranke

Francesca Bria, italienische Wirtschafts- und Sozialwissenschaftlerin und Beraterin für digitale Strategie, Technologie und Informationspolitik, skizziert in diesem Artikel ihre Vision einer neuen Digitalpolitik, die sich nicht damit bescheidet, Digitalisierung zu beschleunigen, sondern ihr eine neue Richtung zu geben: den „Smart Green New Deal“. Sie beschreibt zunächst die marktbeherrschende Stellung der amerikanischen Techfirmen, die sich durch die Pandemie noch verstärkt hat. „Kann es wirklich für uns alle von Vorteil sein, dass eine Handvoll Unternehmen die digitale Wirtschaft kontrolliert? Wir müssen verhindern, dass die Entwicklung des digitalen Kapitalismus zu einer unumkehrbaren wirtschaftlichen Konzentration führt.“ Dem stellt sie das Ziel des digitalen New Deal entgegen: Herstellung der digitalen Souveränität, Politik, „in der die Menschen im Mittelpunkt stehen und bessere Arbeitsschutz- und Umweltgesetze und mehr Bürgerrechte die langfristige soziale Innovation ermöglichen.“

Das Setzen eines Ordnungsrahmens, der auf europäischen Werten basiert, und die Entwicklung einer digitalen Strategie sollte dabei lokal ansetzen, bei den Städten. „Sie können intelligente, datenintensive, algorithmische öffentliche Verkehrssystem, Wohnräume, Gesundheits- und Bildungssysteme betreiben, die allesamt auf Solidarität, sozialer Kooperation und kollektiven Rechten beruhen.“ Diese Entwicklung stellt sich gegen die Deformationen, die Uber, Google, Airbnb hervorgerufen haben: Ausrichtung an einer Spekulationsökonomie, Gentrifizierung, prekäre Arbeitsverhältnisse und Blockade sozialer Innovation. Die Daten, die dabei lokal anfallen, sollten auch im Besitz der Städte und Bürger sein und weitere politische Maßnahmen ermöglichen. Kommunale Daten sollten in ein „Gemeingut“ verwandelt und in den Dienst der Bevölkerung gestellt werden. Sie verweist exemplarisch auf das von ihr in Barcelona entwickelte Modell der „Data-Commons“.

„Nur wenn es uns gelingt, eine digitale Transformation mit einem New Green Deal zu verbinden, können wir binäre Logik durchbrechen, die uns nur die Wahl zwischen zwei Optionen für die digitale Zukunft lässt: zwischen Big State, das heißt dem chinesischen und orwellschen Modell und Big Tech, dem Überwachungskapitalismus aus dem Silicon Valley. Big State entzieht den Menschen ihre Freiheitsrechte, Big Tech errichtet Datenmonopole, die Infrastrukturen wie die von Gesundheits- und Bildungswesen übernehmen. Keines der beiden Modelle ist eine Option für eine demokratische Welt. Ich schlage einen dritten Weg vor: Big Democracy. Eine Demokratisierung von Daten, Bürgerbeteiligung und Technologie im Dienst der Gesellschaft und der ökologischen Transformation.“

Auf der Webseite von Francesca Bria sind Aufsätze, Interviews, Reden in verschiedenen Medien gesammelt.
Webseite des Projekts DECODE, das von ihr gegründet wurde und geführt wird:
„DECODE ist ein experimentelles Projekt zur Entwicklung praktischer Alternativen zur heutigen Nutzung des Internets – vier europäische Pilotprojekte werden den breiteren sozialen Wert aufzeigen, der damit einhergeht, dass Einzelpersonen die Macht haben, die Kontrolle über ihre personenbezogenen Daten zu übernehmen und die Mittel zu erhalten, ihre Daten anders zu teilen.

DECODE wird untersuchen, wie eine datenzentrierte digitale Wirtschaft aufgebaut werden kann, in der Daten, die von Bürgern, dem Internet der Dinge (IoT) und Sensornetzwerken generiert und gesammelt werden, für eine breitere kommunale Nutzung mit angemessenem Datenschutz zur Verfügung stehen.“

Buchseite 34 von 44
1 32 33 34 35 36 44