Die Ökosünden der Digitalindustrie

Veröffentlicht am

Guillaume Pitron: Klimakiller Tiktok. Die Ökosünden der Digitalindustrie, Le Monde diplomatique 07.10.2021 konfrontiert die „Überzeugung, dass die große digitale Transformation zum Wohl unserer Erde geschieht“ mit den Fakten. Zunächst zeigt er in einer Grafik das Periodensystem eines Smartphones, d.h. welche Elemente der Herstellung verbraucht werden. „Die globale Digitalindustrie verbraucht so viel Wasser, Rohstoffe und Energie, dass ihr ökologischer Fußabdruck dreimal so groß ist wie der von Ländern wie Frankreich oder Großbritannien. Die digitalen Technologien verbrauchen inzwischen ein Zehntel des weltweit erzeugten Stroms und sind für fast 4 Prozent des weltweiten CO2-Ausstoßes verantwortlich – knapp doppelt so viel wie der weltweite zivile Luftverkehr.“
Nicht nur die materielle Herstellung der Chips, Computer und Smartphone ist dabei allein entscheidend. Wichtiger noch ist der Prozess der Speicherung in redundanten, gekühlten Rechenzentren und der Prozess des Datenaustausch, der Kommunikation und ihrer Sicherung, in der sich Computerprogramme etwa als Schädlingsverbreiter und -verhinderer gegenseitig kontrollieren. Um für Auslastungsspitzen gerüstet zu, laufen die Rechenzentrum nur bis zu 60% ihrer Kapazität, andere Untersuchungen haben ergeben, dass bis zu 90% des Stromverbrauchs verschwendet werden. „Die Digitalisierung hat unseren materiellen Fußabdruck weitgehend unbemerkt explosionsartig vergrößert. Durch die Milliarden Server, Antennen, Router und LAN-Netzwerke sind die vermeintlich ‚dematerialisierten‘ Technologien nicht nur Rohstoffverbraucher, sie wachsen sich mittlerweile zu einem der materialintensivsten Phänomene aller Zeiten aus.“
Die automatisierte Kommunikation von Computern und Objekten führt zu der Frage, „ob Roboter dereinst einen größeren ökologischen Fußabdruck hinterlassen als der Mensch„: Trolle, Botnets, Spambots, Bitcoin & Co, Internet der Dinge, automatisierte Fonds in der Finanzwelt bis hin zu autonom fahrenden Autos. Pitron weist auf den Widerspruch der Fridays-for-Future Aktivisten hin, „die gegen Fleischkonsum, Plastikverbrauch und Flugreisen revoltieren. Andererseits macht diese Kohorte viel intensiveren Gebrauch von e-Commerce, So­cial-­Media-Apps und Onlinespielen. Sie schwärmt für Internetvideos und kennt keine andere als die Hightechwelt.“  Durch die Ignorierung der Umweltsünden der Digitalisierung tragen sie selbst den Keim des Verfalls mit sich.

Der neue digitale Deal

Veröffentlicht am

Francesca Bria: Wir brauchen einen neuen Deal. Frankfurter Allgemeine Sonntagszeitung Papierausgabe 26.09.2021 und online hinter der Bezahlschranke

Francesca Bria, italienische Wirtschafts- und Sozialwissenschaftlerin und Beraterin für digitale Strategie, Technologie und Informationspolitik, skizziert in diesem Artikel ihre Vision einer neuen Digitalpolitik, die sich nicht damit bescheidet, Digitalisierung zu beschleunigen, sondern ihr eine neue Richtung zu geben: den „Smart Green New Deal“. Sie beschreibt zunächst die marktbeherrschende Stellung der amerikanischen Techfirmen, die sich durch die Pandemie noch verstärkt hat. „Kann es wirklich für uns alle von Vorteil sein, dass eine Handvoll Unternehmen die digitale Wirtschaft kontrolliert? Wir müssen verhindern, dass die Entwicklung des digitalen Kapitalismus zu einer unumkehrbaren wirtschaftlichen Konzentration führt.“ Dem stellt sie das Ziel des digitalen New Deal entgegen: Herstellung der digitalen Souveränität, Politik, „in der die Menschen im Mittelpunkt stehen und bessere Arbeitsschutz- und Umweltgesetze und mehr Bürgerrechte die langfristige soziale Innovation ermöglichen.“

Das Setzen eines Ordnungsrahmens, der auf europäischen Werten basiert, und die Entwicklung einer digitalen Strategie sollte dabei lokal ansetzen, bei den Städten. „Sie können intelligente, datenintensive, algorithmische öffentliche Verkehrssystem, Wohnräume, Gesundheits- und Bildungssysteme betreiben, die allesamt auf Solidarität, sozialer Kooperation und kollektiven Rechten beruhen.“ Diese Entwicklung stellt sich gegen die Deformationen, die Uber, Google, Airbnb hervorgerufen haben: Ausrichtung an einer Spekulationsökonomie, Gentrifizierung, prekäre Arbeitsverhältnisse und Blockade sozialer Innovation. Die Daten, die dabei lokal anfallen, sollten auch im Besitz der Städte und Bürger sein und weitere politische Maßnahmen ermöglichen. Kommunale Daten sollten in ein „Gemeingut“ verwandelt und in den Dienst der Bevölkerung gestellt werden. Sie verweist exemplarisch auf das von ihr in Barcelona entwickelte Modell der „Data-Commons“.

„Nur wenn es uns gelingt, eine digitale Transformation mit einem New Green Deal zu verbinden, können wir binäre Logik durchbrechen, die uns nur die Wahl zwischen zwei Optionen für die digitale Zukunft lässt: zwischen Big State, das heißt dem chinesischen und orwellschen Modell und Big Tech, dem Überwachungskapitalismus aus dem Silicon Valley. Big State entzieht den Menschen ihre Freiheitsrechte, Big Tech errichtet Datenmonopole, die Infrastrukturen wie die von Gesundheits- und Bildungswesen übernehmen. Keines der beiden Modelle ist eine Option für eine demokratische Welt. Ich schlage einen dritten Weg vor: Big Democracy. Eine Demokratisierung von Daten, Bürgerbeteiligung und Technologie im Dienst der Gesellschaft und der ökologischen Transformation.“

Auf der Webseite von Francesca Bria sind Aufsätze, Interviews, Reden in verschiedenen Medien gesammelt.
Webseite des Projekts DECODE, das von ihr gegründet wurde und geführt wird:
„DECODE ist ein experimentelles Projekt zur Entwicklung praktischer Alternativen zur heutigen Nutzung des Internets – vier europäische Pilotprojekte werden den breiteren sozialen Wert aufzeigen, der damit einhergeht, dass Einzelpersonen die Macht haben, die Kontrolle über ihre personenbezogenen Daten zu übernehmen und die Mittel zu erhalten, ihre Daten anders zu teilen.

DECODE wird untersuchen, wie eine datenzentrierte digitale Wirtschaft aufgebaut werden kann, in der Daten, die von Bürgern, dem Internet der Dinge (IoT) und Sensornetzwerken generiert und gesammelt werden, für eine breitere kommunale Nutzung mit angemessenem Datenschutz zur Verfügung stehen.“

Virales Meme

Veröffentlicht am

„Wie schafft man ein virales Meme? Kognitionswissenschaftlerin Sam Ayele und TikTok-Programmchefin Yasmina Banaszczuk über die die Regeln und Gefahren einer neuen Kommunikationsform, Frankfurter Allgemeine Sonntagszeitung 05.09.2021 Papierausgabe
„Ein Meme (ausgesprochen [miːm], Mehrzahl Memes) ist ein spezieller, kreativ geschaffener Bewusstseinsinhalt, der sich unter Menschen verbreitet. Meist handelt es sich dabei um einen kleinen Medieninhalt, der über das Internet verbreitet wird, wie ein Bild mit einer kurzen prägnanten Aussage. Diese ist in der Regel humoristisch und aufheiternd, manchmal auch satirisch und entsprechend gesellschaftskritisch.[1][2] Memes sind seit vielen Jahren ein bedeutender Teil der Netzkultur.“ so Wikipedia.

Was aber macht das Erfolgrezept eines viralen Memes aus: (Ayele): „Memes, die viral gehen, vereinen in jedem Fall Unvorhersehbarkeit und Unbekanntes. Es muss glaubwürdig und skalierbar sein, die Nutzer ansprechen und einen Mehrwert haben. Dazu muss ein Meme teilbar sein. Die Leute müssen also denken: ‚Das wird meinen Freunden auch gefallen“ und es mit ihnen teilen.
… Ein gutes Meme lässt Lücken, die gefüllt werden müssen. Wie bei einem Puzzle. Es lässt Raum für den Betrachter zur Interaktionen, statt nur hundert Prozent von dem wiederzugeben, was man selbst denkt. Insgesamt etwa 75 Prozent Inhalt, know your memendie anderen 25 muss der Betrachter ausfüllen.

Die Webseite „Know your Meme“ sammelt mit Hilfe einer Wiki-Software Memes aus dem Internet.
https://de.wikipedia.org/wiki/Know_Your_Meme (Wikipedia)
https://knowyourmeme.com/

Internet Archiv wird 25

Veröffentlicht am

Das Internet Archiv https://archive.org/ wurde 1996 als gemeinnütziges Projekt zunächst als reines Webarchiv gegründet, in dem Webseiten zu verschiedenen Zeitpunkten archiviert wurden. Siehe auch die Darstellung in Wikipedia. Inzwischen hat es sich zu einem umfassenden digitalen Archiv entwickelt:
588 Milliarden Webseiten
28 Millionen Bücher und Texte
14 Millionen Audioaufnahmen (davon 220.000 Live-Konzerte))
6 Millionen Videos (einschließlich 2 Millionen Fernsehnachrichtenprogramme))
3,5 Millionen Bilder
580.000 Softwareprogramme
Für das Retrieval besonders interessant ist die Wayback Machine, mit der man Webseiten, die zu verschiedenen Zeitpunkten archiviert wurden, aufrufen kann. Am Freitag, 22. Oktober 2021 03:00 – 04:30 UHR MESZ wird es zu dem Jubiläum eine Festveranstaltung geben.

Neuzeitliche Informationsvermittlung als „Suchmaschine“

Veröffentlicht am

Der neuzeitliche Umgang mit Informationen führte in den Metropolen zur Gründung von Informationsbüros, in dem keine persönlichen Netzwerke und Klientelbeziehungen für den Zugang zu Informationen erforderlich waren. Richard Hemmer und Daniel Meßner: Kleine Geschichte eines Arztes, der vor Langem die Suchmaschine erfand, Spektrum 28.07.2021 beschreiben, wie Théophraste Renaudot (1586–1653) 1630 in Paris das »Bureau d’adresse« gründete. Das Dienstleistungsunternehmen vermittelte gegen eine geringe Gebühr Arbeit, Wohnungen, Tiere und Gegenstände. Später gingen die Adressbüros in Zeitungsredaktionen auf, die Informationen nicht direkt vermittelten, sondern öffentlich als Anzeigen präsentierten.

Anton Tantner: Adressbüros im Europa der Frühen Neuzeit, Habilitationsschrift Wien 2011

Strukturwandel des Wissens im Web

Veröffentlicht am

Hans Ulrich Gumbrecht: Google weiss viele Antworten auf unsere Fragen. Wir lernen auch gerade, dass Wissen im herkömmlichen Sinn sich verändert. Aber wie es sich verändert, weiss nicht einmal Google, Neue Zürcher Zeitung 10.08.2021 analysiert den Strukturwandel des Wissens durch die Suchmaschinentechnologien des Web. Zunächst beschreibt er das Selbstbild des Menschen, die „Grenze zwischen dem Menschenmöglichen und dem früher Unmöglichen„,  der Unerreichbarkeit,  aus dem sich die Allwissenheit der monotheistischen Götter entäußert. Im Mittelalter geht noch das Wissen aus der Gnade der göttlichen Offenbarung hervor und verbleibt selbst schriftlich fixiert in diesem hermetischen Rahmen. „Erst mit den Säkularisierungsschüben der frühen Neuzeit und der aus ihr entstehenden Erwartung einer offenen Zukunft wurde Wissen zu einer von den Menschen selbst produzierten konzeptuellen Erfassung der Welt, die auf permanente Erweiterung gestellt war und zunehmend auch auf Verbesserung der Welt.“

Die Ordnung des Wissens unter der Prämisse der Objektivität geht nunmehr in der Allwissenheit des World Wide Web auf. Dabei wird das absolute, statische Wissen, das sich durch seine Qualität definiert,  in einer Handlungsorientierung, die sich in Fragestellungen wiederfindet,  durch die Suchmaschinen aufgelöst und findet ihr Wahrheitskriterium in Prognosen statischer Wahrscheinlichkeit, „der arithmetisch erfassbaren Zahl der jeweiligen Benutzer.“

Während noch oft an dem traditionellen Bildungsanspruch festgehalten wird, sind die Folgen eines solchen quantifizierenden Wissens noch nicht abzusehen.

Covid-19: Gefangen im physikalischen Datenmodell

Veröffentlicht am

Der Expertenrat Corona der Landesregierung Nordrhein-Westfalen hat in seiner 6. und abschließenden Stellungnahme „Das Coronavirus als Teil unserer Lebenswirklichkeit begreifen“ auf die drohende „unfruchtbare Dominanz von allein auf das Infektionsgeschehen konzentrierten Modellanalysen“ hingewiesen:
„In der aktuellen Pandemie hat sich deutlich gezeigt, dass neben der unverzichtbaren naturwissenschaftlichen und medizinischen Expertise dringend sozialwissenschaftliche Kompetenzen vor allem der Soziologie und Sozialpsychologie, sowie historische, rechtliche, ethische und kommunikationswissenschaftliche Expertise sowie die breite Erfahrung von Akteuren aus unterschiedlichen Bereichen des gesellschaftlichen Lebens einbezogen werden sollten. Wird diese Chance versäumt, einen multi- und transdisziplinären Diskurs zu organisieren, droht eine unfruchtbare Dominanz von allein auf das Infektionsgeschehen konzentrierten Modellanalysen.“
Dies stimmt in der Aussage mit meinem Beitrag „Corona: Physikalische oder soziologische Modelle“ überein. Allein: Dies ändert nichts an der Dominanz der physikalischen Modelle, die sich selbst gegen geringfügige Modifikationen immunisieren.
Tobias Haberkorn hat in einem Beitrag „Der große Modelliererstreit: Wurden die Kontaktbeschränkungen überschätzt? Einer der angesehensten Mathematiker Deutschlands hat eine systematische Verzerrung in den Pandemieprognosen entdeckt. Was folgt daraus?“ Berliner Zeitung 27.6.2021 nachgezeichnet, wie allein Änderungen von Parametern innerhalb der Modellierungen – nicht etwa empirische Daten über das Verhalten innerhalb gesellschaftlicher Strukturen – ausreichen, um aus dem wissenschaftlichen Diskurs ausgegrenzt werden. Die Mathematiker Mathias Kreck und Erhard Scholz kritisieren das empidemiologische SIR-Standardmodell, das den Beitrag eines Infizierten als exponentialverteilt annimmt: „Sofort nach der Ansteckung ist g(t) maximal und sinkt dann recht schnell in Richtung der Null ab, ohne diese je zu erreichen. Der Hintergrundfunktion zufolge ist ein Positiver also ganz zu Anfang seiner Infektion für seine Mitmenschen am gefährlichsten.“ Gegen dieses Modell eines unrealistischen Infektionsverlaufs entwickelten sie ein eigenes Modell: „Kreck und Scholz entwickelten ein diskretes Modell, in das die biologische feststellbare Viruslast und andere real erhebbare Daten wie die tägliche Zahl der Neuinfektionen, die Zeit zwischen Symptombeginn und Quarantäne, die veränderlichen Kontaktraten direkt einfließen.“ Praktische Folge wäre gewesen, die Zeit bis zu einer Quarantäne zu verkürzen.
Natürlich werden wir hier nicht klären können, welche Modellrechnung richtiger ist. Aber wichtig erscheint mir, dass es nach wie vor keinen breiten öffentlichen Diskurs über Daten und Datenmodelle gibt.

Matthis Kreck, Erhard Scholz: Nur einen Tag! Eine effektive ergänzende Massnahme zur Eindämmung von Covid 19 (Kurzfassung)
Matthis Kreck, Erhard Scholz:Studying the course of Covid-19 by a revursive delay approach

Theorie des #Hashtags

Veröffentlicht am

Andreas Bernard, Professor für Kulturwissenschaften am „Centre for Digital Cultures“ der Leuphana-Universität Lüneburg: Theorie des #Hashtags, in: Geschichte der Gegenwart 19.05.2021 

In dem #Hashtag verdichten sich die unterschiedlichen Funktionen von Schlagworten (Wörter oder kurze Phrasen, die einen Sachverhalt prägnant und verkürzt zuspitzen)  und den Schlagwörtern oder Deskriptoren  (inhaltliche Erschließung von Sachverhalten anhand eines kontrollierten Vokabulars) .  Es soll einerseits die Suchbarkeit innerhalb des digitalen Mediums sicherstellen, enthält aber darüber hinaus ein allgemeines „Aufmerksamkeitsversprechen„, das selbst in die analoge Welt ausstrahlt.  „Das # ist also längst kein rein funktionales Sonderzeichen mehr, sondern ein verheißungsvolles gesellschaftliches Symbol. Es steht für die Erzeugung und Anhäufung öffentlicher Aufmerksamkeit.“ 

Bernard sieht in diesem „Gestaltungsprinzip von gesellschaftspolitischen Debatten“ gleichzeitig ein Strukturproblem. Inhalte und Konflikte und Homogenisierungs- und Nivellierungstendenzen gehen nicht zuletzt auf die Organisation von Debatten mittels des #Hashtags zurück. 

Die Genese des #Hashtags ist einerseits auf den politischen Aktivismus („Hashtag Activism“) (von den herkömmlichen Massenmedien nicht ausreichend repräsentierte Positionen machen sich geltend) und andererseits auf den Einsatz als Marketing-Instrument („Hashtag Marketing“) (Kundenbindung durch selbst gestaltetes mediales Umfeld, was letztendlich auch im Schutz von #Hashtags als Markenzeichen münden kann) zurückzuführen. Die gemeinsame Funktionsweise verweist auf ein strukturelles Problem:

„Hashtags, so könnte man sagen, kommodifizieren die Wörter, die ihnen folgen. Wenn Georg Lukács 1923 im berühmten „Verdinglichungs“-Kapitel von Geschichte des Klassenbewusstseins zeigen wollte, „wie weit der Warenverkehr die herrschende Form des Stoffwechsels einer Gesellschaft ist“, dann gilt diese Diagnose ein knappes Jahrhundert später sicher für die Metabolik der Sozialen Medien. Nicht-katalogisierbare, einzigartige, widerspenstige Bausteine sind in der Logik des Hashtags irrelevant. Anstatt dessen geht es um die größtmögliche Anhäufung von Beiträgen, um die Akkumulation des gleichförmigen, unter identischem Schlagwort subsumierten Aussagenkapitals, das sich in quantifizierbaren Listen wie den „trending topics“ abbilden und weiter vermehren soll.“

„Der Hashtag bringt die verstreuten Stimmen zum kollektiven Ertönen und nimmt ihnen gleichzeitig das, was an ihnen unverrechenbar ist.“

Unter Baerbockologen (Wikipedia)

Veröffentlicht am

Ergänzend zu den Analysen der englischsprachigen Wikipedia von Larry Sanger, Shuichi Tezuka and Linda A. Ashtear über die nicht mehr neutralen Artikel von Wikipedia zu bestimmten gesellschaftlichen und politischen Fragestellungen schildern Simon Haas und Lucien Scherrer: Grüne Dominanz im «edit war»: Was Annalena Baerbocks Eintrag über Wikipedia aussagt, Neue Zürcher Zeitung 10.06.2912 die Edit Wars in Wikipedia über den biographischen Eintrag von Annalena Baerbock. Sie beschreiben, dass Wikipedia „ein fast makelloses Bild der grünen Politikerin zeichnet. Dies ist umso auffälliger, als bei anderen Politikern oft jede umstrittene Aussage und jedes potenziell fragwürdige Gebaren thematisiert wird.“ „Im Gegensatz zu Laschet und vielen anderen Spitzenpolitikern gibt es bei Baerbock nicht einmal die sonst üblichen Wikipedia-Rubriken «Kritik» oder «Positionen, Kontroversen und Rezeption.“ Bei der Nachzeichnung der Edit Wars kommen sie zu dem Ergebnis, dass Wikipedia Autoren, die Baerbock in Schutz nehmen, bis heute die „Deutungshoheit“ haben.

„Das zeigt die Diskussion über die Frage, ob Annalena Baerbock wie andere Politiker einen separaten «Kritik»-Abschnitt erhalten soll. Obwohl es seit August 2019 entsprechende Vorschläge gibt, haben die Fürsprecher der grünen Politikerin bisher fast alles verhindert. Dies unter anderem mit dem Argument, darüber müsse erst ein «Konsens» gefunden werden. Gleichzeitig versuchen sie, einen solchen Konsens mit langwierigen, sophistischen Debatten zu verhindern.

Dieses Verhaltensmuster erinnert wohl nicht zufällig an das Filibuster-Prinzip – eine aus den USA bekannte Taktik, die darauf abzielt, den politischen Gegner im Parlament mit endlosen Redebeiträgen am Reden zu hindern und zu zermürben. Oder, wie es ein in die Minderheit versetzter Wikipedia-Autor in Zusammenhang mit Baerbocks nicht gemeldeten Parteibeiträgen einmal ausdrückte: «Es geht breit durch die Presse, nur hier wartet man, bis keiner mehr davon redet.»“

Ist Wikipedia noch neutral?

Veröffentlicht am

Larry Sanger, Wikipedia-Mitbegründer, hat im Mai 2020 in dem Artikel Wikipedia Is Badly Biased erklärt, dass Wikipedias neutraler Standpunkt tot ist: „Wikipedia’s “NPOV” is dead. The original policy long since forgotten, Wikipedia no longer has an effective neutrality policy. There is a rewritten policy, but it endorses the utterly bankrupt canard that journalists should avoid what they call “false balance. The notion that we should avoid “false balance” is directly contradictory to the original neutrality policy. As a result, even as journalists turn to opinion and activism, Wikipedia now touts controversial points of view on politics, religion, and science. Here are some examples from each of these subjects, which were easy to find, no hunting around. Many, many more could be given.“ Die Vermeidung des „falschen Gleichgewichts“ führt zu einer tendenziösen Darstellung von Sachverhalten, die er exemplarisch anhand folgender darstellt: Obama, Trump, Hillary Clinton, Abtreibung, Drogenlegalisierung, Christus, Erderwärmung, alternative Medizin. Er fordert, dass Wikipedia „sauber“ wird, also zumindest offen zugibt, dass Neutralität aufgegeben wurde. „It is time for Wikipedia to come clean and admit that it has abandoned NPOV (i.e., neutrality as a policy). At the very least they should admit that that they have redefined the term in a way that makes it utterly incompatible with its original notion of neutrality, which is the ordinary and common one. It might be better to embrace a “credibility” policy and admit that their notion of what is credible does, in fact, bias them against conservatism, traditional religiosity, and minority perspectives on science and medicine—to say nothing of many other topics on which Wikipedia has biases.“

Shuichi Tezuka and Linda A. Ashtear: The left-wing bias of Wikipedia. Is Wikipedia’s neutral point of view truly dead? The Critic 22.10.2020 legen eine vertiefende Analyse der englischsprachigen Wikipedia vor. Im Gegensatz zu der früheren Studie von S. Greenstein, Feng Zhu: Do Experts or Collective Intelligence Write with More Bias? Evidence from Encyclopædia Britannica and Wikipedia, Working Paper 2014, die sich auf Inhalt und Geschichte von Wikipedia-Artikeln konzentrierte, untersuchen sie die sozialen Mechanismus in der Wikipedia Community, insbesondere der Einordnung von Quellen und der Schiedsgerichtsbarkeit von kontroversen Fällen: „examining specific mechanisms that produce political bias in Wikipedia, with a focus on administrative decisions at the Arbitration Enforcement noticeboard. We also discuss how this bias ultimately affects the site’s content.“ Vorwiegend konservative und rechtsgerichtete Quellen werden als veraltet und nicht vertrauenswürdig eingestuft. Bei  der statistischen Analyse der Schiedsverfahren zu den Themen Trump, Waffenkontrolle, Rasse und Intelligenz, Abtreibung kommen sie zu dem Ergebnis: „editors who support views associated with the political right tend to receive disciplinary action more frequently than those who support views associated with the political left.“ Sie belegen darüber hinaus, dass sich dies auch in dem politischen Selbstverständnis der Redakteure niederschlägt, die explizit Neutralität aufgeben. Durch die sich dadurch ergebene Konstellation werden Falschinformationen und Hoaxes, die eigentlich mit dem eigenen politischen Standpunkt übereinstimmen, auch schwieriger und später entdeckt und führen zur Qualitätsminderung: „The principle illustrated by this series of events is that members of Wikipedia are far less likely to notice and remove vandalism or hoax material if it is in support of a viewpoint that they agree with. (This is true of all viewpoints, both left-leaning and right-leaning.) While this particular example was more severe than most, the same principle also applies to more subtle violations of Wikipedia’s content policies, such as article text not adequately supported by the sources it cites. When Wikipedia’s administrators suppress one side of a dispute in a controversial topic, one of the long-term results is that policy violations favourable to the opposite side may be overlooked for months or years.“

Die Autoren kommen zu dem Ergebnis, dass Neutralität nur durch Reformen von Wikipedia wieder hergestellt werden könnte. Der Anspruch der Neutralität wird aber wahrscheinlich nur formal aufrechterhalten, aber inhaltlich nicht mehr gefüllt: „There are three possible outcomes, and one is for Wikipedia or the WMF to implement reforms protecting the viewpoint diversity necessary for its core policies to be upheld. A second option is for these policies to be officially overturned, although it is unlikely the Wikipedia community would agree to a change on that scale. The final possibility, and perhaps the most likely, is the one predicted by Larry Sanger: that these policies will remain on the books, with perhaps a few half-hearted attempts at reform, but that in the long term they will come to be understood as unenforceable.“

Page 1 of 6
1 2 3 6