Demographie vs Statistik

Andreas Hoffmann: Interview Demografischer Wandel: Statistiker Gerd Bosbach: “Dass ein alternder Staat schlecht sein soll, ist Blödsinn”. Wäre es wirklich so gut, wenn wir alle 95 würden? Haben wir nicht jetzt schon ein demografisches Problem? Absolut nicht, sagt der Bevölkerungsforscher Gerd Bosbach, in: stern 16.08.2023 (hinter der Bezahlschranke) Bosbach weist daraufhin, dass seit Ende des 19. Jahrhundert es ständige mehr alte Menschen und weniger Junge gegeben hat. Werden demographische Daten absolut gesetzt ohne Berücksichtigung anderer statistischer Faktoren, führt dies zu einer Desinformation: “Die Demografie ist oft nur eine Ausrede für eigene Fehler oder die Kürzung von Sozialleistungen.” Wichtigster Punkt, der langfristig berücksichtigt werden muss, ist die Steigerung der Produktivität. “Im Jahr 1900 ernährte ein Bauer acht Menschen, im Jahr 2000 mehr als 80.” Wer eine Begrenzung der Rentenzahlung fordert, liegt falsch und argumentiert aus einer bornierten Interessenlage. Ein Großteil der Subventionen von Steuergeld in die Rentenkasse ist auf versicherungsfremde Leistungen zurückzuführen, die politisch beschlossen worden sind. Selbst eine prozentuale Stiegerung der Rentenbeiträge ist dann kein Problem, wenn der Wohlstand und damit die Einkommen absolut ansteigen. Den Mangel an Fachkräftemangel führt er vor allem auf eine verfehlte Arbeitsmarktpolitik vor allem in den Bereichen Ausbildung, Numerus Clausus für Medizin, Orientierung auf die Akademikerquote und mangelnde Schulqualiät zurück.

Informationsfreiheitsgesetze als Werkzeug

Ausgabe 27 der Online-Recherche Newsletter: ORN #37 An nicht-öffentliche Dokumente rankommen. “In dieser Ausgabe geht es um ein mächtiges Werkzeug: Informationsfreiheitsgesetze, kurz IFG. Sie machen ungeahnte Recherchen möglich und bringen unter Verschluss gehaltene Dokumente ans Tageslicht. Dabei helfen auch internationale Websites. Im Werkstatt-Interview berichtet Haluka Maier-Borst von seiner Daten-Recherche über die frustrierende Wartezeit auf Praxistermine.”

Datenschutz als Supergrundrecht

Ist Datenschutz ein Sondergrundrecht, das alle anderen Grundrechte aushebelt?  Jürgen Kühling, Boris Paal und Rolf Schwartmann: Die Ambivalenz des Datenschutzes, Frankfurter Allgemeine Zeitung 19.10.2022 (hinter der Bezahlschranke) analysieren die Ambivalenz des Datenschutzes. Durch seine Rechtsprechung hat sich das EuGH als wichtiges Grundrechtsgericht etabliert, das Datenschutz auf verschiedenen Ebenen – auch gegenüber den G A F A (G für Google, A für Apple, F für Facebook und A für Amazon) – durchsetzt. Die Frage wird gestellt, ob andererseits nicht die andere Seite zu kurz kommt: Förderung des freien Datenverkehrs, “Grundrechtseinbußen” durch Mangel an Datenverarbeitung. “Datenschutz ist kein uneingeschränktes Recht, sondern muss in praktische Konkordanz mit einer Vielzahl von Gemeinwohlinteressen gebracht werden…Datenschutz ist keineswegs ein Super(grund)recht.” Der Mensch ist sowohl “Schutzobjekt und Wirtschaftssubjekt zugleich”. “Diese Entwicklung bedarf eines adäquaten Schutzrechts, nicht aber einer Verhinderungsrechtsprechung.”

Covid-19: Gefangen im physikalischen Datenmodell

Der Expertenrat Corona der Landesregierung Nordrhein-Westfalen hat in seiner 6. und abschließenden Stellungnahme “Das Coronavirus als Teil unserer Lebenswirklichkeit begreifen” auf die drohende “unfruchtbare Dominanz von allein auf das Infektionsgeschehen konzentrierten Modellanalysen” hingewiesen:
„In der aktuellen Pandemie hat sich deutlich gezeigt, dass neben der unverzichtbaren naturwissenschaftlichen und medizinischen Expertise dringend sozialwissenschaftliche Kompetenzen vor allem der Soziologie und Sozialpsychologie, sowie historische, rechtliche, ethische und kommunikationswissenschaftliche Expertise sowie die breite Erfahrung von Akteuren aus unterschiedlichen Bereichen des gesellschaftlichen Lebens einbezogen werden sollten. Wird diese Chance versäumt, einen multi- und transdisziplinären Diskurs zu organisieren, droht eine unfruchtbare Dominanz von allein auf das Infektionsgeschehen konzentrierten Modellanalysen.“
Dies stimmt in der Aussage mit meinem Beitrag “Corona: Physikalische oder soziologische Modelle” überein. Allein: Dies ändert nichts an der Dominanz der physikalischen Modelle, die sich selbst gegen geringfügige Modifikationen immunisieren.
Tobias Haberkorn hat in einem Beitrag “Der große Modelliererstreit: Wurden die Kontaktbeschränkungen überschätzt? Einer der angesehensten Mathematiker Deutschlands hat eine systematische Verzerrung in den Pandemieprognosen entdeckt. Was folgt daraus?” Berliner Zeitung 27.6.2021 nachgezeichnet, wie allein Änderungen von Parametern innerhalb der Modellierungen – nicht etwa empirische Daten über das Verhalten innerhalb gesellschaftlicher Strukturen – ausreichen, um aus dem wissenschaftlichen Diskurs ausgegrenzt werden. Die Mathematiker Mathias Kreck und Erhard Scholz kritisieren das empidemiologische SIR-Standardmodell, das den Beitrag eines Infizierten als exponentialverteilt annimmt: “Sofort nach der Ansteckung ist g(t) maximal und sinkt dann recht schnell in Richtung der Null ab, ohne diese je zu erreichen. Der Hintergrundfunktion zufolge ist ein Positiver also ganz zu Anfang seiner Infektion für seine Mitmenschen am gefährlichsten.” Gegen dieses Modell eines unrealistischen Infektionsverlaufs entwickelten sie ein eigenes Modell: “Kreck und Scholz entwickelten ein diskretes Modell, in das die biologische feststellbare Viruslast und andere real erhebbare Daten wie die tägliche Zahl der Neuinfektionen, die Zeit zwischen Symptombeginn und Quarantäne, die veränderlichen Kontaktraten direkt einfließen.” Praktische Folge wäre gewesen, die Zeit bis zu einer Quarantäne zu verkürzen.
Natürlich werden wir hier nicht klären können, welche Modellrechnung richtiger ist. Aber wichtig erscheint mir, dass es nach wie vor keinen breiten öffentlichen Diskurs über Daten und Datenmodelle gibt.

Matthis Kreck, Erhard Scholz: Nur einen Tag! Eine effektive ergänzende Massnahme zur Eindämmung von Covid 19 (Kurzfassung)
Matthis Kreck, Erhard Scholz:Studying the course of Covid-19 by a revursive delay approach

Das Dilemma der Algorithmen und Daten

Kai Burkhardt, Kamala Harris. Die Frau, die Google und Facebook zerschlagen kann – wenn sie will, Die Welt 14.12. (hinter der Bezahlschranke) beschreibt, dass Harris aufgrund ihrer Kenntnisse der Tech-Firmen in Kalifornien in der Lage sein könnte, die Internetkonzerne zu deregulieren.

Zunächst geht er davon aus, dass die gesellschaftlichen Schäden, die insbesondere Social Media durch die Methoden der Nutzerführung und Manipulation erzeugt haben, „nicht mehr ohne Weiteres zu reparieren“ sind. „Die politischen Identitäten, die sich in den Resonanzräumen der Internetkonzerne gebildet haben, werden auch nicht einfach in den politischen Mainstream zurückkehren.“
Wer aber könnte die technischen und finanziellen Mittel verfügen, um diesen Prozess zu korrigieren, wenn nicht die Verursacher, die Internetkonzerne selbst? Die verschiedenen Aspekte dieses Dilemmas werden analysiert.
Programmierer zeichnen sich aufgrund ihrer Biographie in der Regel nicht durch gesellschaftliche Empathie aus. Ihre Produkte, die „Algorithmen sind nichts anders als die Verallgemeinerung von Hypothesen und Vorurteilen in den Köpfen von Programmieren.“ Der Programmcode zeigt sich letztlich an den Ergebnissen, der Code selbst aber kann kaum ohne Hilfe künstlicher Intelligenz darauf geprüft werden, was er nicht oder zur Zeit nicht liefert und was er in anderen Konstellationen liefern könnte. „Künstliche Intelligenz kann aufgrund ihrer schieren Komplexität also wiederum nur von einer anderen Künstlichen Intelligenz untersucht werden und da beißt sich nun die Katze in den Schwanz, denn das Ergebnis einer Simulation kann nicht simuliert werden.“ Aber selbst wenn dies gelänge, wären Algorithmen ohne Daten wertlos. Jenseits der von den Internetfirmen selbst erhobenen Daten gerät der Umgang mit Daten durch die Datamining-Firmen, die jegliche Arten von Daten zu Profilen verknüpfen, in eine neue Dimension. Burkhardt sieht eine Chance in einem zentralen „Open-Source-Katasteramt“, „das Datensätze nicht nur verwaltet, sondern auch erforscht und beschreibt, bevor sie an Dritte weitergegeben werden.“ Es wäre möglich, dass sich die Internetkonzerne unter dem politischen Druck einer Zerschlagung ihrer Konzernstrukturen in die Richtung eines anderen Umgangs mit Daten bewegen.

Datenkolonialismus

Ob Daten als “Rohstoff”, “Rohdaten”, “neues Öl”, “Grundwasser” bezeichnet werden: In Wirklichkeit erfolgt erst durch die Umwandlung von Informationen des alltäglichen Lebens mittels “Datenbeziehungen”, in die wir durch Teilhabe an digitalen Diensten und Plattformen einwilligen, in einen Datenstrom, die Konstruktion und folgende kommerzielle und gewinnmaximierende Ausnutzung der Daten. Schon die Natur-Metaphorik ist Teil einer Verdeckung, einer Ideologisierung einer grundlegenden gesellschaftlichen Veränderung, die als fortschrittliche Entwicklung legitimiert wird. Nick Couldry, Professor für Medien, Kommunikation und Sozialtheorie an der London School of Economics, nennt dies “Datenkolonialismus”.

Früher “legitimierten die Kolonisatoren die Ausbeutung ganzer Kontinente damit, dass dort vorkommende Rohstoffe zu ihrer freien Verfügung einfach so herumlägen. … Mit Daten verhält es sich heute ähnlich: Es wird suggeriert, dass die Daten über unser Leben einfach so da seien und von Konzernen verwendet werden müssen, um gesellschaftlichen Fortschritt zu erzielen. Das ist unserer Analyse nach der Beginn eines neuen Kolonialismus, bei dem unser gesamtes Leben in Daten umgewandelt wird und damit völlig neue Geschäftsfelder ermöglicht. Wir nennen das Datenkolonialismus, weil es das einzige Wort ist, das erfassen kann, wie groß diese Veränderung ist.”

Dadurch ändert sich auch die Struktur von Wissen. Spätestens im 19. Jahrhundert war Wissen öffentliches Gut, als Statistiken öffentlich erhoben und Gegenstand öffentlicher Diskurse. Jetzt geht Wissen in Form der erhobenen Daten in privates Eigentum einiger großer Konzerne über und entzieht sich dem öffentlichen Diskurs.

Der Datenkolonialismus – so Couldry – führt zu einer neuen Phase des Kapitalismus, einer schrankenlosen Kapitalisierung des Lebens, die auf Ausbeutung und Manipulation beruht.  Es gilt, die Unvermeidlichkeit und Notwendigkeit dieses Prozesses in Frage zu stellen und eine alternative Zukunft für die digitale Gesellschaft zu entwickeln.

Hanne Bohmhammel und Hanna Israel: Interview mit Nick Couldry. “Vielleicht wird in Zukunft auch mit Gewalt um Daten gekämpft”, in: Zeit Online 02.02.2019

Marc Pirogan: Kolonisiert durch Daten: Die Aushöhlung der digitalen Gesellschaft. Blog Alexander von Humboldt. Institut für Internet und Gesellschaft 15.01.2019

Nick Couldry: Datenkolonialismus – die Aushöhlung der digitalen Gesellschaft Vortrag

Datenlobbyismus

Deutsche zahlen ganz gern Steuern

“Uno-Untersuchung. Deutsche zahlen ganz gern Steuern. Viele Bürger klagen oft über hohe Abgaben. Eine von der Uno veröffentlichte Untersuchung kommt aber zu dem Schluss: Die Akzeptanz des Steuersystems ist in Deutschland hoch – verglichen mit anderen Ländern“, so ein Artikel in Spiegel Online vom 03.01.2019.

Diese Meldung ging als Teil des automatisierten Nachrichten-Feeds der Deutschen Presse-Agentur (dpa) durch über 170 deutsche Medien. Lediglich ein Tageszeitungs– und ein Blog-Artikel setzten sich kritisch mit der Meldung auseinander. Das Problem: nichts daran stimmt. (mehr …)

Der digitale Mensch als Kadaver

Es ist eine geläufige Annahme, dass die Internet-Nutzer ihre Daten gegen den Zugang zu Informationen tauschen, also ein fairer Tausch stattfinde. Dieser Tausch ist allerdings nur Schein, bloße Form, die den eigentlichen zugrundeliegenden Vorgang verdeckt und ihn mystifiziert.
Der digitale Mensch ist in dem Prozess seiner Aneignung durch den Überwachungskapitalismus nicht mehr Produkt, sondern nur noch ein “zurückgelassener Kadaver”. Dies meint Shoshana Zuboff, emeritierte Professorin der Harvard Business School und Autorin des Buchs “Das Zeitalter des Überwachungskapitalismus”. “Wir sind nicht das Produkt, sondern vielmehr die Quelle, das frei zugängliche Rohmaterial. Das wird wiederum zu Produkten verarbeitet, die den Interessen derer dienen, die von unserem zukünftigen Verhalten profitieren.”
Unsere menschliche Erfahrung wird auf optimierte Verhaltensprognosen reduziert, wird zum Handelsgut, das in Produkte umgewandelt und letztlich auch manipuliert wird.

Der Überwachungskapitalismus sei eine “Mutation des modernen Kapitalismus”, eine “parasitäre Entwicklung”, die alle gesellschaftlichen Bereiche durchdringt. “Er geht davon aus, dass die private menschliche Erfahrung frei zugängliches Rohmaterial für die kapitalistische Produktion und den Warenaustausch ist. Zweitens kombiniert er digitale Technologien mit Strategien heimlicher Überwachung, um Verhaltensdaten aus allen menschlichen Erfahrungen zu extrahieren. Drittens nutzt er Maschinenintelligenz, um Verhaltensdaten in Verhaltensprognosen umzuwandeln – ich nenne sie “Vorhersageprodukte”. Diese Produkte werden dann an die neuen Märkte verkauft, die ausschließlich mit Prognosen über unser zukünftiges Verhalten handeln.”
Mit “historisch unvorstellbaren Wissensasymmetrien” werde in gesellschaftliche Prozesse eingegriffen und diese demokratischer Kontrolle entzogen. Die einzige Möglichkeit, die sie sieht, ” ist, die spezifischen Mechanismen des Überwachungskapitalismus, die diese Datenkonzentrationen produzieren, zu unterbrechen oder auch zu verbieten.”


Mirjam Hauck: “Überwachungskapitalisten wissen alles über uns”. Die großen Datenkonzerne beuten ihre Nutzer aus, sagt die emeritierte Harvard-Professorin Shoshana Zuboff. Sie erklärt, warum es so schwer ist, sich dem Überwachungskapitalismus zu entziehen.in: Süddeutsche Zeitung 7.11.2018

„Überwachungskapitalismus“ steuert das Verhalten. Shoshana Zuboff im Gespräch mit Marcus Richter und Vera Linß in: Deutschlandfunk Kultur 20.10.2018

Forum Privatheit 2018: Shoshana Zuboff keynote speech on surveillance capitalism, Youtube Video

Shoshana Zuboff: Wie wir Googles Sklaven wurden, in: Frankfurter Allgemeine Zeitung 05.03.2016

Daten als Menetekel 7: Mehr als ein Viertel der Tweets zum Migrationspakt Social Bots?

Am 10.12.2018 ist der WELT ein Artikel von Jan Lindenau: Roboter mobilisieren gegen Migrationspakt (hinter der Bezahlschranke) erschienen. Danach hat die Firma Botswatch eine Analyse von 800.000 Tweets zwischen dem 24. November und dem 2. Dezember ausgewertet. Als Ergebnis gibt sie bekannt, dass über ein Viertel dieser Tweets Social Bots gewesen seien, die inhaltlich Stimmung gegen den Migrationspakt gemacht hätten. Diese Meldung wurde in der gesamten deutschen Presse verbreitet.

Allerdings wurde die Analyse selbst und die Methodik, die als Geschäftsgeheimnis proklamiert wird, nicht offengelegt. Dies und die nicht nachvollziehbaren Ergebnisse stießen auf erhebliche Kritik von Experten. Der Social-Media Analyst Luca Hammer hat auf Twitter die Aussagen einer Kritik unterzogen. Er stellt bei einer Stichprobe fest, dass der Anteil der Bots – darunter allerdings auch automatisierte Informationsbots der Presse  – bei etwa 6 Prozent liegt. Der Datenjournalist Michael Kreil hat einen offenen Brief an Botswatch geschrieben:

“Wir brauchen dringend wissenschaftliche basierte, methodisch korrekte Analysen dieser Vorgänge! Was wir nicht brauchen, sind Akteur_innen, die mit unbewiesenen Behauptungen den Diskurs entführen, Panik und Verunsicherung verbreiten, und die Bundesregierung unzureichend beraten. Für mich ist es momentan nicht unterscheidbar, welche Position Sie mit botswatch einnehmen möchten. Daher bitte ich Sie, Frau Wilke, geben Sie die Methoden und Daten Ihrer Untersuchung “Social Bots und Migrationspakt” für eine unabhängige, wissenschaftliche Überprüfung frei.”

Der Verlauf der Diskussion wird in den Artikeln von Robert Tusch: Kritik an Botswatch: Warum die Debatte um die Social Bot-Studie zum Migrationspakt für Medien wichtig ist, in: Meedia vom 12.12.2018 sowie von Markus Reuter: Ein Bot allein macht keine Revolte. Und auch keine Migrationsdebatte, in: netzpolitik.org vom 10.12.2018 wiedergegeben. Dort wird auch auf die methodischen Probleme bei der Erkennung von Bots und andere Formen von Accounts eingegangen, die für die politische Einflussnahme im Netz wichtiger sind. “Alleine angesichts der Einflussmöglichkeiten menschlich betriebener Accounts, ist es schlichtweg unseriös und unterkomplex soziale Bewegungen oder hart umkämpfte gesellschaftliche Diskurse mit Bots erklären zu wollen.”

Jonas Hermann: Haben Bots die Debatte um den Migrationspakt einseitig beeinflusst?, Neue Zürcher Zeitung vom 13.12.2018    fasst noch einmal die Kritik und die Diskussion zusammen. Er weist auf die engen personellen Verbindungen von Botswatch zur CDU hin.

“Die Bot-Analyse wurde am Tag der Verabschiedung des Migrationspakts publik. Das mag Zufall sein oder auch nicht. Sicher ist jedenfalls, dass sie herangezogen werden kann, um Kritiker des Paktes zu diskreditieren und die Debatte darüber als aufgeblasen und fremdgesteuert darzustellen.”

Somit kann es sein, dass nicht Social Bots, sondern frei erfundene Daten über Social Bots den politischen Diskurs beeinflussen sollten.

Daten als Menetekel 6: Stickstoffdioxid-Grenzwert erfunden

Alexander Kekulé, Direktor des Instituts für Medizinische Mikrobiologie des Universitätsklinikums Halle (Saale), hat in der ZEIT vom 08.11.2018 – online hinter der Bezahlschranke  – einen Artikel verfasst “Hysterie ums Falsche. der Grenzwert 40 Mikrogramm für das Auspuffgas ist aus der Luft gegriffen.” Als Faksimile noch zu lesen auf http://www.gegenwind-saarland.de/Klimawandel/181108-ZEIT—Hysterie-um-NO2.mrkd.pdf . Eine verkürzte Fassung ist im Tagesspiegel  vom 10.11.2018 erschienen, allerdings nicht mehr auf der Online-Seite des TAGESSPIEGEL vorhanden, sondern nur noch über PPRESSREADER. https://www.pressreader.com/germany/der-tagesspiegel/20181110/281715500636547

Danach beschloss die EU 1993, langfristige Luftqualitätsziele, u.a. einen strengen Grenzwert für NO festzulegen. Die Legitimation eines solchen Wertes musste  auf Arbeiten der Weltgesundheitsorganisation WHO beruhen. Um den damals gültigen WHO-Richtwert von 150 Mikrogramm zu reduzieren, wurde dort eine Arbeitsgruppe gebildet, die sich einer Metaanalyse aus einem fünf Jahr älteren Bericht der US-Umweltbehörde bediente. Laut Kekulé wertete die Metaanalyse verschiedene Forschungsarbeiten aus, deren Parameter aber völlig unterschiedlich waren. Trotz dieser völlig unterschiedlicher Einflussfaktoren wurde als Ergebnis festgehalten, “dass Atemwegserkrankungen in Haushalten mit Gasherd um 20 Prozent häufiger sind als in Haushalten mit Elektroherd”. Allerdings konnten daraus keine Messwerte abgeleitet werden, da in Haushalten mit Gasherd sehr unterschiedliche Konzentrationen (8 – 2500 Mikrogramm) festgestellt wurden. “Mangels brauchbarer Daten schätzten die Gutachter kurzerhand, dass ein Gasherd die mittlere jährliche NO-Konzentration im Haushalt auf ungefähr 40 Mikrogramm erhöht, und schlugen diese Größe als Richtwert vor. Bis heute gibt es keinen Beleg dafür, dass die Zahl irgendetwas mit den gesundheitlichen Auswirkungen von NO zu tun hätte.” Ohne dies zu überprüfen, übernahm die EU diesen Wert als gesetzlichen Grenzwert. “Bis heute gibt es keine belastbaren Daten, die den 40 Mikrogramm-Grenzwert stützen.

Der Stickstoffdioxid- Grenzwert ist somit schlichtweg erfunden worden.

Nachtrag:
Sebastian Viehmann: “Das ist Volksverdummung”. Das Diesel-Desaster: Neue Dokumentation zeigt Irrsinn von Fahrverboten, in: Focus Online 09.01.2019
Das Diesel Desaster ARD 07.01.2019 Verfügbar bis 07.01.2020

Buchseite 1 von 2
1 2