Covid-19: Gefangen im physikalischen Datenmodell

Veröffentlicht am

Der Expertenrat Corona der Landesregierung Nordrhein-Westfalen hat in seiner 6. und abschließenden Stellungnahme „Das Coronavirus als Teil unserer Lebenswirklichkeit begreifen“ auf die drohende „unfruchtbare Dominanz von allein auf das Infektionsgeschehen konzentrierten Modellanalysen“ hingewiesen:
„In der aktuellen Pandemie hat sich deutlich gezeigt, dass neben der unverzichtbaren naturwissenschaftlichen und medizinischen Expertise dringend sozialwissenschaftliche Kompetenzen vor allem der Soziologie und Sozialpsychologie, sowie historische, rechtliche, ethische und kommunikationswissenschaftliche Expertise sowie die breite Erfahrung von Akteuren aus unterschiedlichen Bereichen des gesellschaftlichen Lebens einbezogen werden sollten. Wird diese Chance versäumt, einen multi- und transdisziplinären Diskurs zu organisieren, droht eine unfruchtbare Dominanz von allein auf das Infektionsgeschehen konzentrierten Modellanalysen.“
Dies stimmt in der Aussage mit meinem Beitrag „Corona: Physikalische oder soziologische Modelle“ überein. Allein: Dies ändert nichts an der Dominanz der physikalischen Modelle, die sich selbst gegen geringfügige Modifikationen immunisieren.
Tobias Haberkorn hat in einem Beitrag „Der große Modelliererstreit: Wurden die Kontaktbeschränkungen überschätzt? Einer der angesehensten Mathematiker Deutschlands hat eine systematische Verzerrung in den Pandemieprognosen entdeckt. Was folgt daraus?“ Berliner Zeitung 27.6.2021 nachgezeichnet, wie allein Änderungen von Parametern innerhalb der Modellierungen – nicht etwa empirische Daten über das Verhalten innerhalb gesellschaftlicher Strukturen – ausreichen, um aus dem wissenschaftlichen Diskurs ausgegrenzt werden. Die Mathematiker Mathias Kreck und Erhard Scholz kritisieren das empidemiologische SIR-Standardmodell, das den Beitrag eines Infizierten als exponentialverteilt annimmt: „Sofort nach der Ansteckung ist g(t) maximal und sinkt dann recht schnell in Richtung der Null ab, ohne diese je zu erreichen. Der Hintergrundfunktion zufolge ist ein Positiver also ganz zu Anfang seiner Infektion für seine Mitmenschen am gefährlichsten.“ Gegen dieses Modell eines unrealistischen Infektionsverlaufs entwickelten sie ein eigenes Modell: „Kreck und Scholz entwickelten ein diskretes Modell, in das die biologische feststellbare Viruslast und andere real erhebbare Daten wie die tägliche Zahl der Neuinfektionen, die Zeit zwischen Symptombeginn und Quarantäne, die veränderlichen Kontaktraten direkt einfließen.“ Praktische Folge wäre gewesen, die Zeit bis zu einer Quarantäne zu verkürzen.
Natürlich werden wir hier nicht klären können, welche Modellrechnung richtiger ist. Aber wichtig erscheint mir, dass es nach wie vor keinen breiten öffentlichen Diskurs über Daten und Datenmodelle gibt.

Matthis Kreck, Erhard Scholz: Nur einen Tag! Eine effektive ergänzende Massnahme zur Eindämmung von Covid 19 (Kurzfassung)
Matthis Kreck, Erhard Scholz:Studying the course of Covid-19 by a revursive delay approach

Das Dilemma der Algorithmen und Daten

Veröffentlicht am

Kai Burkhardt, Kamala Harris. Die Frau, die Google und Facebook zerschlagen kann – wenn sie will, Die Welt 14.12. (hinter der Bezahlschranke) beschreibt, dass Harris aufgrund ihrer Kenntnisse der Tech-Firmen in Kalifornien in der Lage sein könnte, die Internetkonzerne zu deregulieren.

Zunächst geht er davon aus, dass die gesellschaftlichen Schäden, die insbesondere Social Media durch die Methoden der Nutzerführung und Manipulation erzeugt haben, „nicht mehr ohne Weiteres zu reparieren“ sind. „Die politischen Identitäten, die sich in den Resonanzräumen der Internetkonzerne gebildet haben, werden auch nicht einfach in den politischen Mainstream zurückkehren.“
Wer aber könnte die technischen und finanziellen Mittel verfügen, um diesen Prozess zu korrigieren, wenn nicht die Verursacher, die Internetkonzerne selbst? Die verschiedenen Aspekte dieses Dilemmas werden analysiert.
Programmierer zeichnen sich aufgrund ihrer Biographie in der Regel nicht durch gesellschaftliche Empathie aus. Ihre Produkte, die „Algorithmen sind nichts anders als die Verallgemeinerung von Hypothesen und Vorurteilen in den Köpfen von Programmieren.“ Der Programmcode zeigt sich letztlich an den Ergebnissen, der Code selbst aber kann kaum ohne Hilfe künstlicher Intelligenz darauf geprüft werden, was er nicht oder zur Zeit nicht liefert und was er in anderen Konstellationen liefern könnte. „Künstliche Intelligenz kann aufgrund ihrer schieren Komplexität also wiederum nur von einer anderen Künstlichen Intelligenz untersucht werden und da beißt sich nun die Katze in den Schwanz, denn das Ergebnis einer Simulation kann nicht simuliert werden.“ Aber selbst wenn dies gelänge, wären Algorithmen ohne Daten wertlos. Jenseits der von den Internetfirmen selbst erhobenen Daten gerät der Umgang mit Daten durch die Datamining-Firmen, die jegliche Arten von Daten zu Profilen verknüpfen, in eine neue Dimension. Burkhardt sieht eine Chance in einem zentralen „Open-Source-Katasteramt“, „das Datensätze nicht nur verwaltet, sondern auch erforscht und beschreibt, bevor sie an Dritte weitergegeben werden.“ Es wäre möglich, dass sich die Internetkonzerne unter dem politischen Druck einer Zerschlagung ihrer Konzernstrukturen in die Richtung eines anderen Umgangs mit Daten bewegen.

Datenkolonialismus

Veröffentlicht am

Ob Daten als „Rohstoff“, „Rohdaten“, „neues Öl“, „Grundwasser“ bezeichnet werden: In Wirklichkeit erfolgt erst durch die Umwandlung von Informationen des alltäglichen Lebens mittels „Datenbeziehungen“, in die wir durch Teilhabe an digitalen Diensten und Plattformen einwilligen, in einen Datenstrom, die Konstruktion und folgende kommerzielle und gewinnmaximierende Ausnutzung der Daten. Schon die Natur-Metaphorik ist Teil einer Verdeckung, einer Ideologisierung einer grundlegenden gesellschaftlichen Veränderung, die als fortschrittliche Entwicklung legitimiert wird. Nick Couldry, Professor für Medien, Kommunikation und Sozialtheorie an der London School of Economics, nennt dies „Datenkolonialismus“.

Früher „legitimierten die Kolonisatoren die Ausbeutung ganzer Kontinente damit, dass dort vorkommende Rohstoffe zu ihrer freien Verfügung einfach so herumlägen. … Mit Daten verhält es sich heute ähnlich: Es wird suggeriert, dass die Daten über unser Leben einfach so da seien und von Konzernen verwendet werden müssen, um gesellschaftlichen Fortschritt zu erzielen. Das ist unserer Analyse nach der Beginn eines neuen Kolonialismus, bei dem unser gesamtes Leben in Daten umgewandelt wird und damit völlig neue Geschäftsfelder ermöglicht. Wir nennen das Datenkolonialismus, weil es das einzige Wort ist, das erfassen kann, wie groß diese Veränderung ist.“

Dadurch ändert sich auch die Struktur von Wissen. Spätestens im 19. Jahrhundert war Wissen öffentliches Gut, als Statistiken öffentlich erhoben und Gegenstand öffentlicher Diskurse. Jetzt geht Wissen in Form der erhobenen Daten in privates Eigentum einiger großer Konzerne über und entzieht sich dem öffentlichen Diskurs.

Der Datenkolonialismus – so Couldry – führt zu einer neuen Phase des Kapitalismus, einer schrankenlosen Kapitalisierung des Lebens, die auf Ausbeutung und Manipulation beruht.  Es gilt, die Unvermeidlichkeit und Notwendigkeit dieses Prozesses in Frage zu stellen und eine alternative Zukunft für die digitale Gesellschaft zu entwickeln.

Hanne Bohmhammel und Hanna Israel: Interview mit Nick Couldry. „Vielleicht wird in Zukunft auch mit Gewalt um Daten gekämpft“, in: Zeit Online 02.02.2019

Marc Pirogan: Kolonisiert durch Daten: Die Aushöhlung der digitalen Gesellschaft. Blog Alexander von Humboldt. Institut für Internet und Gesellschaft 15.01.2019

Nick Couldry: Datenkolonialismus – die Aushöhlung der digitalen Gesellschaft Vortrag

Datenlobbyismus

Veröffentlicht am

Deutsche zahlen ganz gern Steuern

„Uno-Untersuchung. Deutsche zahlen ganz gern Steuern. Viele Bürger klagen oft über hohe Abgaben. Eine von der Uno veröffentlichte Untersuchung kommt aber zu dem Schluss: Die Akzeptanz des Steuersystems ist in Deutschland hoch – verglichen mit anderen Ländern„, so ein Artikel in Spiegel Online vom 03.01.2019.

Diese Meldung ging als Teil des automatisierten Nachrichten-Feeds der Deutschen Presse-Agentur (dpa) durch über 170 deutsche Medien. Lediglich ein Tageszeitungs– und ein Blog-Artikel setzten sich kritisch mit der Meldung auseinander. Das Problem: nichts daran stimmt. (mehr …)

Der digitale Mensch als Kadaver

Veröffentlicht am

Es ist eine geläufige Annahme, dass die Internet-Nutzer ihre Daten gegen den Zugang zu Informationen tauschen, also ein fairer Tausch stattfinde. Dieser Tausch ist allerdings nur Schein, bloße Form, die den eigentlichen zugrundeliegenden Vorgang verdeckt und ihn mystifiziert.
Der digitale Mensch ist in dem Prozess seiner Aneignung durch den Überwachungskapitalismus nicht mehr Produkt, sondern nur noch ein „zurückgelassener Kadaver“. Dies meint Shoshana Zuboff, emeritierte Professorin der Harvard Business School und Autorin des Buchs „Das Zeitalter des Überwachungskapitalismus“. „Wir sind nicht das Produkt, sondern vielmehr die Quelle, das frei zugängliche Rohmaterial. Das wird wiederum zu Produkten verarbeitet, die den Interessen derer dienen, die von unserem zukünftigen Verhalten profitieren.“
Unsere menschliche Erfahrung wird auf optimierte Verhaltensprognosen reduziert, wird zum Handelsgut, das in Produkte umgewandelt und letztlich auch manipuliert wird.

Der Überwachungskapitalismus sei eine „Mutation des modernen Kapitalismus“, eine „parasitäre Entwicklung“, die alle gesellschaftlichen Bereiche durchdringt. „Er geht davon aus, dass die private menschliche Erfahrung frei zugängliches Rohmaterial für die kapitalistische Produktion und den Warenaustausch ist. Zweitens kombiniert er digitale Technologien mit Strategien heimlicher Überwachung, um Verhaltensdaten aus allen menschlichen Erfahrungen zu extrahieren. Drittens nutzt er Maschinenintelligenz, um Verhaltensdaten in Verhaltensprognosen umzuwandeln – ich nenne sie „Vorhersageprodukte“. Diese Produkte werden dann an die neuen Märkte verkauft, die ausschließlich mit Prognosen über unser zukünftiges Verhalten handeln.“
Mit „historisch unvorstellbaren Wissensasymmetrien“ werde in gesellschaftliche Prozesse eingegriffen und diese demokratischer Kontrolle entzogen. Die einzige Möglichkeit, die sie sieht, “ ist, die spezifischen Mechanismen des Überwachungskapitalismus, die diese Datenkonzentrationen produzieren, zu unterbrechen oder auch zu verbieten.“


Mirjam Hauck: „Überwachungskapitalisten wissen alles über uns“. Die großen Datenkonzerne beuten ihre Nutzer aus, sagt die emeritierte Harvard-Professorin Shoshana Zuboff. Sie erklärt, warum es so schwer ist, sich dem Überwachungskapitalismus zu entziehen.in: Süddeutsche Zeitung 7.11.2018

„Überwachungskapitalismus“ steuert das Verhalten. Shoshana Zuboff im Gespräch mit Marcus Richter und Vera Linß in: Deutschlandfunk Kultur 20.10.2018

Forum Privatheit 2018: Shoshana Zuboff keynote speech on surveillance capitalism, Youtube Video

Shoshana Zuboff: Wie wir Googles Sklaven wurden, in: Frankfurter Allgemeine Zeitung 05.03.2016

Daten als Menetekel 7: Mehr als ein Viertel der Tweets zum Migrationspakt Social Bots?

Veröffentlicht am

Am 10.12.2018 ist der WELT ein Artikel von Jan Lindenau: Roboter mobilisieren gegen Migrationspakt (hinter der Bezahlschranke) erschienen. Danach hat die Firma Botswatch eine Analyse von 800.000 Tweets zwischen dem 24. November und dem 2. Dezember ausgewertet. Als Ergebnis gibt sie bekannt, dass über ein Viertel dieser Tweets Social Bots gewesen seien, die inhaltlich Stimmung gegen den Migrationspakt gemacht hätten. Diese Meldung wurde in der gesamten deutschen Presse verbreitet.

Allerdings wurde die Analyse selbst und die Methodik, die als Geschäftsgeheimnis proklamiert wird, nicht offengelegt. Dies und die nicht nachvollziehbaren Ergebnisse stießen auf erhebliche Kritik von Experten. Der Social-Media Analyst Luca Hammer hat auf Twitter die Aussagen einer Kritik unterzogen. Er stellt bei einer Stichprobe fest, dass der Anteil der Bots – darunter allerdings auch automatisierte Informationsbots der Presse  – bei etwa 6 Prozent liegt. Der Datenjournalist Michael Kreil hat einen offenen Brief an Botswatch geschrieben:

„Wir brauchen dringend wissenschaftliche basierte, methodisch korrekte Analysen dieser Vorgänge! Was wir nicht brauchen, sind Akteur_innen, die mit unbewiesenen Behauptungen den Diskurs entführen, Panik und Verunsicherung verbreiten, und die Bundesregierung unzureichend beraten. Für mich ist es momentan nicht unterscheidbar, welche Position Sie mit botswatch einnehmen möchten. Daher bitte ich Sie, Frau Wilke, geben Sie die Methoden und Daten Ihrer Untersuchung „Social Bots und Migrationspakt“ für eine unabhängige, wissenschaftliche Überprüfung frei.“

Der Verlauf der Diskussion wird in den Artikeln von Robert Tusch: Kritik an Botswatch: Warum die Debatte um die Social Bot-Studie zum Migrationspakt für Medien wichtig ist, in: Meedia vom 12.12.2018 sowie von Markus Reuter: Ein Bot allein macht keine Revolte. Und auch keine Migrationsdebatte, in: netzpolitik.org vom 10.12.2018 wiedergegeben. Dort wird auch auf die methodischen Probleme bei der Erkennung von Bots und andere Formen von Accounts eingegangen, die für die politische Einflussnahme im Netz wichtiger sind. „Alleine angesichts der Einflussmöglichkeiten menschlich betriebener Accounts, ist es schlichtweg unseriös und unterkomplex soziale Bewegungen oder hart umkämpfte gesellschaftliche Diskurse mit Bots erklären zu wollen.“

Jonas Hermann: Haben Bots die Debatte um den Migrationspakt einseitig beeinflusst?, Neue Zürcher Zeitung vom 13.12.2018    fasst noch einmal die Kritik und die Diskussion zusammen. Er weist auf die engen personellen Verbindungen von Botswatch zur CDU hin.

„Die Bot-Analyse wurde am Tag der Verabschiedung des Migrationspakts publik. Das mag Zufall sein oder auch nicht. Sicher ist jedenfalls, dass sie herangezogen werden kann, um Kritiker des Paktes zu diskreditieren und die Debatte darüber als aufgeblasen und fremdgesteuert darzustellen.“

Somit kann es sein, dass nicht Social Bots, sondern frei erfundene Daten über Social Bots den politischen Diskurs beeinflussen sollten.

Daten als Menetekel 6: Stickstoffdioxid-Grenzwert erfunden

Veröffentlicht am

Alexander Kekulé, Direktor des Instituts für Medizinische Mikrobiologie des Universitätsklinikums Halle (Saale), hat in der ZEIT vom 08.11.2018 – online hinter der Bezahlschranke  – einen Artikel verfasst „Hysterie ums Falsche. der Grenzwert 40 Mikrogramm für das Auspuffgas ist aus der Luft gegriffen.“ Als Faksimile noch zu lesen auf http://www.gegenwind-saarland.de/Klimawandel/181108-ZEIT—Hysterie-um-NO2.mrkd.pdf . Eine verkürzte Fassung ist im Tagesspiegel  vom 10.11.2018 erschienen, allerdings nicht mehr auf der Online-Seite des TAGESSPIEGEL vorhanden, sondern nur noch über PPRESSREADER. https://www.pressreader.com/germany/der-tagesspiegel/20181110/281715500636547

Danach beschloss die EU 1993, langfristige Luftqualitätsziele, u.a. einen strengen Grenzwert für NO festzulegen. Die Legitimation eines solchen Wertes musste  auf Arbeiten der Weltgesundheitsorganisation WHO beruhen. Um den damals gültigen WHO-Richtwert von 150 Mikrogramm zu reduzieren, wurde dort eine Arbeitsgruppe gebildet, die sich einer Metaanalyse aus einem fünf Jahr älteren Bericht der US-Umweltbehörde bediente. Laut Kekulé wertete die Metaanalyse verschiedene Forschungsarbeiten aus, deren Parameter aber völlig unterschiedlich waren. Trotz dieser völlig unterschiedlicher Einflussfaktoren wurde als Ergebnis festgehalten, „dass Atemwegserkrankungen in Haushalten mit Gasherd um 20 Prozent häufiger sind als in Haushalten mit Elektroherd“. Allerdings konnten daraus keine Messwerte abgeleitet werden, da in Haushalten mit Gasherd sehr unterschiedliche Konzentrationen (8 – 2500 Mikrogramm) festgestellt wurden. „Mangels brauchbarer Daten schätzten die Gutachter kurzerhand, dass ein Gasherd die mittlere jährliche NO-Konzentration im Haushalt auf ungefähr 40 Mikrogramm erhöht, und schlugen diese Größe als Richtwert vor. Bis heute gibt es keinen Beleg dafür, dass die Zahl irgendetwas mit den gesundheitlichen Auswirkungen von NO zu tun hätte.“ Ohne dies zu überprüfen, übernahm die EU diesen Wert als gesetzlichen Grenzwert. „Bis heute gibt es keine belastbaren Daten, die den 40 Mikrogramm-Grenzwert stützen.

Der Stickstoffdioxid- Grenzwert ist somit schlichtweg erfunden worden.

Nachtrag:
Sebastian Viehmann: „Das ist Volksverdummung“. Das Diesel-Desaster: Neue Dokumentation zeigt Irrsinn von Fahrverboten, in: Focus Online 09.01.2019
Das Diesel Desaster ARD 07.01.2019 Verfügbar bis 07.01.2020

Sind statistische Daten Fakten?

Veröffentlicht am

In einem Artikel vom 02.11.2018 der Neuen Zürcher Zeitung schildert der Artikel „Das Bundesamt für Statistik schafft die Fakten für die Schweizer Demokratie. Dann macht es einen Fehler“   , wie statistische Daten offiziell verändert wurden:

„Die Statistik zur Ausschaffung von kriminellen Ausländern zeigte, dass der Staat angeblich nur 54 Prozent von ihnen ausgeschafft hatte ­– die Zahl suggerierte, dass die anderen als Härtefalle eingestuft und deshalb nicht des Landes verwiesen worden waren. Das Thema ist brisant, bisher liess sich der Effekt der Ausschaffungsinitiative nicht in Zahlen fassen. Nach der ersten Entrüstung rechnete das BfS neu: 69 Prozent. Dann löschte es die Statistik ganz von der Website.“

Sind Daten komplex, so dass sie einer Komplexitätsreduktion bedürfen, um verständlich zu sein? Sind statistische Daten Fakten oder sind sie Interpretationen? Auf welche Interpretationen einigt man sich oder sind die Interpretationen Fake-News?

„«Natürlich ist Statistik hochpolitisch», sagt Ulrich. Denn was gemessen wird und wie, ist politisch, wen man fragt und welche Fragen man stellt. «Es gibt keine Wahrheit, man kann sich nur einig sein, was man messen will.» Wie hoch ist die Armut? Die Bildung? Das Bruttoinlandprodukt? Mit den Indikatoren macht man Politik, weil man sich auf sie geeinigt hat. «Aber am Ende sucht sich in der Statistik jeder seine eigene Wahrheit, das war schon immer so», sagt Ulrich.“

„Die zurückgezogenen Ausschaffungszahlen des BfS zeigen, dass man sich immer wieder neu einigen muss, was die Fakten sind und wie sie geschaffen werden. Die Fake-News-Rufe aber haben einen Zweifel gesät: daran, dass es so etwas gibt wie Fakten, dass es überhaupt etwas gibt, worauf man sich geeinigt hat in diesem Land.“

Daten als Stimmungsaufheller-Fake

Veröffentlicht am

Neben der Funktion als Menetekel dienen Daten auch zur Stimmungsaufhellung:

Daten als Menetekel 5: Messstationen zur NO 2 Messung

Veröffentlicht am

Die Messstationen zur NO2-Messung, die nach der RICHTLINIE 2008/50/EG DES EUROPÄISCHEN PARLAMENTS UND DES RATES vom 21. Mai 2008 über Luftqualität und saubere Luft für Europa und der Neununddreißigsten Verordnung zur Durchführung des Bundes-Immissionsschutzgesetzes (Verordnung über Luftqualitätsstandards und Emissionshöchstmengen – 39. BImSchV) Anlage 3 C. Kleinräumige Ortsbestimmung der Probenahmestellen aufgestellt werden sollten, stehen Großteils an Stellen, die den Vorgaben nicht entsprechen. Siehe dazu Holger Douglas: Große Leseraktion: Wie manipulieren Messstationen die Feinstaubmessung in Ihrer Stadt?, Tichys Einblick 23.03.2018. D.h. die Messwerte sind teilweise nicht valide und nicht miteinander zu vergleichen.

Während die Problematik von Bundesregierung und Städten ignoriert bzw. geleugnet wurden (z.B. Wiesbaden), hat die Verkehrsministerkonferenz am 19.4.2018 unter Punkt 4.2 der Tagesordnung: Luftreinhaltung b) Valide NO2 -Messungen als Grundlage für rechtssichere Luftreinhaltepläne gefordert, die Validität von Standorten von Messstellen gemäß den europäischen Vorgaben zu überprüfen. U.a. wird gefordert:
„Die Verkehrsministerkonferenz hält es für erforderlich, dass die Installation der Messeinrichtungen bundes- und europaweit nach einem einheitlichen Maßstab erfolgt, weil Vergleiche der Messergebnisse und die erforderliche rechtliche
Gleichbehandlung der vor Ort Betroffenen andernfalls unmöglich wären. Die Verkehrsministerkonferenz regt an, dass bei der Überprüfung insbesondere Fragen geklärt werden wie
a) der vorgeschriebenen räumlichen Repräsentativität der Messungen für ein größeres Gebiet in einer Stadt, nicht nur für einen kleinen Raum in unmittelbarer Nähe der Messstation,
b) der zeitlichen Relevanz hinsichtlich des Zeitraums, in dem die Bevölkerung einer relevanten Belastung ausgesetzt ist,
c) der korrekten Platzierung des Messeinlasses der Station,
d) der vorgeschriebenen Vermeidung von Messungen im Rückstau vor Kreuzungen,
e) die vorgeschriebene Vermeidung von Messungen unterhalb von Hindernissen wie z. B. Bäumen.“

Nachtrag:
Sebastian Viehmann: „Das ist Volksverdummung“. Das Diesel-Desaster: Neue Dokumentation zeigt Irrsinn von Fahrverboten, in: Focus Online 09.01.2019
Das Diesel Desaster ARD 07.01.2019 Verfügbar bis 07.01.2020

Page 1 of 2
1 2