Handbuch Informationsfreiheit

Das Legal-Team von FragDenStaat hat ein Handbuch Informationsfreiheit erarbeitet, das auch als Open Access zugänglich ist. Der Inhalt:
Einleitung
Unsichtbare Infrastrukturen
Die Informationsfreiheit in der Europäischen Menschenrechtskonvention
Die Informationsfreiheit in der Aarhus-Konvention
Amtliche Informationen
Der Informationsbegriff nach den Umweltinformationsgesetzen
Der Informationsbegriff im VIG
Informationspflichtige Stellen
Besondere öffentliche Interessen
Geheimnisschutzvorschriften
Öffentliche Sicherheit
Verfahrensbezogene Ablehnungsgründe
Schutz personenbezogener Daten
Schutz des geistigen Eigentums und von Betriebs- oder Geschäftsgeheimnissen
Weitere Ablehnungsgründe
Verfahren
Kosten
Beauftragte für die Informationsfreiheit
Rechtsschutz
Veröffentlichungspflichten
Zugang zu Dokumenten der Europäischen Union

Demographie vs Statistik

Andreas Hoffmann: Interview Demografischer Wandel: Statistiker Gerd Bosbach: “Dass ein alternder Staat schlecht sein soll, ist Blödsinn”. Wäre es wirklich so gut, wenn wir alle 95 würden? Haben wir nicht jetzt schon ein demografisches Problem? Absolut nicht, sagt der Bevölkerungsforscher Gerd Bosbach, in: stern 16.08.2023 (hinter der Bezahlschranke) Bosbach weist daraufhin, dass seit Ende des 19. Jahrhundert es ständige mehr alte Menschen und weniger Junge gegeben hat. Werden demographische Daten absolut gesetzt ohne Berücksichtigung anderer statistischer Faktoren, führt dies zu einer Desinformation: “Die Demografie ist oft nur eine Ausrede für eigene Fehler oder die Kürzung von Sozialleistungen.” Wichtigster Punkt, der langfristig berücksichtigt werden muss, ist die Steigerung der Produktivität. “Im Jahr 1900 ernährte ein Bauer acht Menschen, im Jahr 2000 mehr als 80.” Wer eine Begrenzung der Rentenzahlung fordert, liegt falsch und argumentiert aus einer bornierten Interessenlage. Ein Großteil der Subventionen von Steuergeld in die Rentenkasse ist auf versicherungsfremde Leistungen zurückzuführen, die politisch beschlossen worden sind. Selbst eine prozentuale Stiegerung der Rentenbeiträge ist dann kein Problem, wenn der Wohlstand und damit die Einkommen absolut ansteigen. Den Mangel an Fachkräftemangel führt er vor allem auf eine verfehlte Arbeitsmarktpolitik vor allem in den Bereichen Ausbildung, Numerus Clausus für Medizin, Orientierung auf die Akademikerquote und mangelnde Schulqualiät zurück.

Covid-19: Gefangen im physikalischen Datenmodell

Der Expertenrat Corona der Landesregierung Nordrhein-Westfalen hat in seiner 6. und abschließenden Stellungnahme “Das Coronavirus als Teil unserer Lebenswirklichkeit begreifen” auf die drohende “unfruchtbare Dominanz von allein auf das Infektionsgeschehen konzentrierten Modellanalysen” hingewiesen:
„In der aktuellen Pandemie hat sich deutlich gezeigt, dass neben der unverzichtbaren naturwissenschaftlichen und medizinischen Expertise dringend sozialwissenschaftliche Kompetenzen vor allem der Soziologie und Sozialpsychologie, sowie historische, rechtliche, ethische und kommunikationswissenschaftliche Expertise sowie die breite Erfahrung von Akteuren aus unterschiedlichen Bereichen des gesellschaftlichen Lebens einbezogen werden sollten. Wird diese Chance versäumt, einen multi- und transdisziplinären Diskurs zu organisieren, droht eine unfruchtbare Dominanz von allein auf das Infektionsgeschehen konzentrierten Modellanalysen.“
Dies stimmt in der Aussage mit meinem Beitrag “Corona: Physikalische oder soziologische Modelle” überein. Allein: Dies ändert nichts an der Dominanz der physikalischen Modelle, die sich selbst gegen geringfügige Modifikationen immunisieren.
Tobias Haberkorn hat in einem Beitrag “Der große Modelliererstreit: Wurden die Kontaktbeschränkungen überschätzt? Einer der angesehensten Mathematiker Deutschlands hat eine systematische Verzerrung in den Pandemieprognosen entdeckt. Was folgt daraus?” Berliner Zeitung 27.6.2021 nachgezeichnet, wie allein Änderungen von Parametern innerhalb der Modellierungen – nicht etwa empirische Daten über das Verhalten innerhalb gesellschaftlicher Strukturen – ausreichen, um aus dem wissenschaftlichen Diskurs ausgegrenzt werden. Die Mathematiker Mathias Kreck und Erhard Scholz kritisieren das empidemiologische SIR-Standardmodell, das den Beitrag eines Infizierten als exponentialverteilt annimmt: “Sofort nach der Ansteckung ist g(t) maximal und sinkt dann recht schnell in Richtung der Null ab, ohne diese je zu erreichen. Der Hintergrundfunktion zufolge ist ein Positiver also ganz zu Anfang seiner Infektion für seine Mitmenschen am gefährlichsten.” Gegen dieses Modell eines unrealistischen Infektionsverlaufs entwickelten sie ein eigenes Modell: “Kreck und Scholz entwickelten ein diskretes Modell, in das die biologische feststellbare Viruslast und andere real erhebbare Daten wie die tägliche Zahl der Neuinfektionen, die Zeit zwischen Symptombeginn und Quarantäne, die veränderlichen Kontaktraten direkt einfließen.” Praktische Folge wäre gewesen, die Zeit bis zu einer Quarantäne zu verkürzen.
Natürlich werden wir hier nicht klären können, welche Modellrechnung richtiger ist. Aber wichtig erscheint mir, dass es nach wie vor keinen breiten öffentlichen Diskurs über Daten und Datenmodelle gibt.

Matthis Kreck, Erhard Scholz: Nur einen Tag! Eine effektive ergänzende Massnahme zur Eindämmung von Covid 19 (Kurzfassung)
Matthis Kreck, Erhard Scholz:Studying the course of Covid-19 by a revursive delay approach

Wissen im digitalen Zeitalter

Wie konstituiert sich Wissen im digitalen Zeitalter? Eduard Kaeser: Vorsicht, Tunnelblick! – Wissen im Zeitalter der Datenabfrage, in: Neue Zürcher Zeitung 02.02.2019 unterscheidet zunächst vier Typen des Wissens: Wissen-wie (Know-how, physischer Umgang mit Sachen und Personen, Beherrschung der Techniken, Erfahrung, handwerkliche Tradition), Wissen-warum (Know-why, Theoretiker, Analyse von Kausalität), Wissen-was (Know-what, Sammler von Daten und Fakten, Korrelation), Wissen-wo (Know-where, Datenabfrage per Suchmaschine). Durch die Machtposition des digitalen Mediums verschiebt sich die Hegemonie der Typen des Wissens zum Wissen-wo und zur Sammlung von Korrelationen – mit fatalen Folgen.

“Das Erkenntnisinteresse der Query unterscheidet sich von jenem der Wissenschaft. Wissenschaft geht von einer Theorie oder Hypothese aus und sucht diese durch Datenmaterial zu bestätigen, also: Theorie vor Daten. Die Query durchkämmt Datenmassen, vergleicht Datensätze und stellt fest, ob die Korrelation eine Hypothese nahelegt, also: Daten vor Theorie. Wir hören auf das Rauschen im Datenozean und warten auf die Signale, die uns die Suchmaschinen liefern. Wir geben uns damit zufrieden, die Signale verwenden zu können. Aber verstehen wir sie auch?”

Wissen-wie (Erfahrung und Expertentum) – wozu auch die Techniken des Information Retrieval gehören – und Wissen-warum geraten in den Hintergrund. Die Balance der Wissenstypen geht verloren.

Datenkolonialismus

Ob Daten als “Rohstoff”, “Rohdaten”, “neues Öl”, “Grundwasser” bezeichnet werden: In Wirklichkeit erfolgt erst durch die Umwandlung von Informationen des alltäglichen Lebens mittels “Datenbeziehungen”, in die wir durch Teilhabe an digitalen Diensten und Plattformen einwilligen, in einen Datenstrom, die Konstruktion und folgende kommerzielle und gewinnmaximierende Ausnutzung der Daten. Schon die Natur-Metaphorik ist Teil einer Verdeckung, einer Ideologisierung einer grundlegenden gesellschaftlichen Veränderung, die als fortschrittliche Entwicklung legitimiert wird. Nick Couldry, Professor für Medien, Kommunikation und Sozialtheorie an der London School of Economics, nennt dies “Datenkolonialismus”.

Früher “legitimierten die Kolonisatoren die Ausbeutung ganzer Kontinente damit, dass dort vorkommende Rohstoffe zu ihrer freien Verfügung einfach so herumlägen. … Mit Daten verhält es sich heute ähnlich: Es wird suggeriert, dass die Daten über unser Leben einfach so da seien und von Konzernen verwendet werden müssen, um gesellschaftlichen Fortschritt zu erzielen. Das ist unserer Analyse nach der Beginn eines neuen Kolonialismus, bei dem unser gesamtes Leben in Daten umgewandelt wird und damit völlig neue Geschäftsfelder ermöglicht. Wir nennen das Datenkolonialismus, weil es das einzige Wort ist, das erfassen kann, wie groß diese Veränderung ist.”

Dadurch ändert sich auch die Struktur von Wissen. Spätestens im 19. Jahrhundert war Wissen öffentliches Gut, als Statistiken öffentlich erhoben und Gegenstand öffentlicher Diskurse. Jetzt geht Wissen in Form der erhobenen Daten in privates Eigentum einiger großer Konzerne über und entzieht sich dem öffentlichen Diskurs.

Der Datenkolonialismus – so Couldry – führt zu einer neuen Phase des Kapitalismus, einer schrankenlosen Kapitalisierung des Lebens, die auf Ausbeutung und Manipulation beruht.  Es gilt, die Unvermeidlichkeit und Notwendigkeit dieses Prozesses in Frage zu stellen und eine alternative Zukunft für die digitale Gesellschaft zu entwickeln.

Hanne Bohmhammel und Hanna Israel: Interview mit Nick Couldry. “Vielleicht wird in Zukunft auch mit Gewalt um Daten gekämpft”, in: Zeit Online 02.02.2019

Marc Pirogan: Kolonisiert durch Daten: Die Aushöhlung der digitalen Gesellschaft. Blog Alexander von Humboldt. Institut für Internet und Gesellschaft 15.01.2019

Nick Couldry: Datenkolonialismus – die Aushöhlung der digitalen Gesellschaft Vortrag

Datenlobbyismus

Deutsche zahlen ganz gern Steuern

“Uno-Untersuchung. Deutsche zahlen ganz gern Steuern. Viele Bürger klagen oft über hohe Abgaben. Eine von der Uno veröffentlichte Untersuchung kommt aber zu dem Schluss: Die Akzeptanz des Steuersystems ist in Deutschland hoch – verglichen mit anderen Ländern“, so ein Artikel in Spiegel Online vom 03.01.2019.

Diese Meldung ging als Teil des automatisierten Nachrichten-Feeds der Deutschen Presse-Agentur (dpa) durch über 170 deutsche Medien. Lediglich ein Tageszeitungs– und ein Blog-Artikel setzten sich kritisch mit der Meldung auseinander. Das Problem: nichts daran stimmt. (mehr …)

Daten als Menetekel 7: Mehr als ein Viertel der Tweets zum Migrationspakt Social Bots?

Am 10.12.2018 ist der WELT ein Artikel von Jan Lindenau: Roboter mobilisieren gegen Migrationspakt (hinter der Bezahlschranke) erschienen. Danach hat die Firma Botswatch eine Analyse von 800.000 Tweets zwischen dem 24. November und dem 2. Dezember ausgewertet. Als Ergebnis gibt sie bekannt, dass über ein Viertel dieser Tweets Social Bots gewesen seien, die inhaltlich Stimmung gegen den Migrationspakt gemacht hätten. Diese Meldung wurde in der gesamten deutschen Presse verbreitet.

Allerdings wurde die Analyse selbst und die Methodik, die als Geschäftsgeheimnis proklamiert wird, nicht offengelegt. Dies und die nicht nachvollziehbaren Ergebnisse stießen auf erhebliche Kritik von Experten. Der Social-Media Analyst Luca Hammer hat auf Twitter die Aussagen einer Kritik unterzogen. Er stellt bei einer Stichprobe fest, dass der Anteil der Bots – darunter allerdings auch automatisierte Informationsbots der Presse  – bei etwa 6 Prozent liegt. Der Datenjournalist Michael Kreil hat einen offenen Brief an Botswatch geschrieben:

“Wir brauchen dringend wissenschaftliche basierte, methodisch korrekte Analysen dieser Vorgänge! Was wir nicht brauchen, sind Akteur_innen, die mit unbewiesenen Behauptungen den Diskurs entführen, Panik und Verunsicherung verbreiten, und die Bundesregierung unzureichend beraten. Für mich ist es momentan nicht unterscheidbar, welche Position Sie mit botswatch einnehmen möchten. Daher bitte ich Sie, Frau Wilke, geben Sie die Methoden und Daten Ihrer Untersuchung “Social Bots und Migrationspakt” für eine unabhängige, wissenschaftliche Überprüfung frei.”

Der Verlauf der Diskussion wird in den Artikeln von Robert Tusch: Kritik an Botswatch: Warum die Debatte um die Social Bot-Studie zum Migrationspakt für Medien wichtig ist, in: Meedia vom 12.12.2018 sowie von Markus Reuter: Ein Bot allein macht keine Revolte. Und auch keine Migrationsdebatte, in: netzpolitik.org vom 10.12.2018 wiedergegeben. Dort wird auch auf die methodischen Probleme bei der Erkennung von Bots und andere Formen von Accounts eingegangen, die für die politische Einflussnahme im Netz wichtiger sind. “Alleine angesichts der Einflussmöglichkeiten menschlich betriebener Accounts, ist es schlichtweg unseriös und unterkomplex soziale Bewegungen oder hart umkämpfte gesellschaftliche Diskurse mit Bots erklären zu wollen.”

Jonas Hermann: Haben Bots die Debatte um den Migrationspakt einseitig beeinflusst?, Neue Zürcher Zeitung vom 13.12.2018    fasst noch einmal die Kritik und die Diskussion zusammen. Er weist auf die engen personellen Verbindungen von Botswatch zur CDU hin.

“Die Bot-Analyse wurde am Tag der Verabschiedung des Migrationspakts publik. Das mag Zufall sein oder auch nicht. Sicher ist jedenfalls, dass sie herangezogen werden kann, um Kritiker des Paktes zu diskreditieren und die Debatte darüber als aufgeblasen und fremdgesteuert darzustellen.”

Somit kann es sein, dass nicht Social Bots, sondern frei erfundene Daten über Social Bots den politischen Diskurs beeinflussen sollten.

Daten als Menetekel 6: Stickstoffdioxid-Grenzwert erfunden

Alexander Kekulé, Direktor des Instituts für Medizinische Mikrobiologie des Universitätsklinikums Halle (Saale), hat in der ZEIT vom 08.11.2018 – online hinter der Bezahlschranke  – einen Artikel verfasst “Hysterie ums Falsche. der Grenzwert 40 Mikrogramm für das Auspuffgas ist aus der Luft gegriffen.” Als Faksimile noch zu lesen auf http://www.gegenwind-saarland.de/Klimawandel/181108-ZEIT—Hysterie-um-NO2.mrkd.pdf . Eine verkürzte Fassung ist im Tagesspiegel  vom 10.11.2018 erschienen, allerdings nicht mehr auf der Online-Seite des TAGESSPIEGEL vorhanden, sondern nur noch über PPRESSREADER. https://www.pressreader.com/germany/der-tagesspiegel/20181110/281715500636547

Danach beschloss die EU 1993, langfristige Luftqualitätsziele, u.a. einen strengen Grenzwert für NO festzulegen. Die Legitimation eines solchen Wertes musste  auf Arbeiten der Weltgesundheitsorganisation WHO beruhen. Um den damals gültigen WHO-Richtwert von 150 Mikrogramm zu reduzieren, wurde dort eine Arbeitsgruppe gebildet, die sich einer Metaanalyse aus einem fünf Jahr älteren Bericht der US-Umweltbehörde bediente. Laut Kekulé wertete die Metaanalyse verschiedene Forschungsarbeiten aus, deren Parameter aber völlig unterschiedlich waren. Trotz dieser völlig unterschiedlicher Einflussfaktoren wurde als Ergebnis festgehalten, “dass Atemwegserkrankungen in Haushalten mit Gasherd um 20 Prozent häufiger sind als in Haushalten mit Elektroherd”. Allerdings konnten daraus keine Messwerte abgeleitet werden, da in Haushalten mit Gasherd sehr unterschiedliche Konzentrationen (8 – 2500 Mikrogramm) festgestellt wurden. “Mangels brauchbarer Daten schätzten die Gutachter kurzerhand, dass ein Gasherd die mittlere jährliche NO-Konzentration im Haushalt auf ungefähr 40 Mikrogramm erhöht, und schlugen diese Größe als Richtwert vor. Bis heute gibt es keinen Beleg dafür, dass die Zahl irgendetwas mit den gesundheitlichen Auswirkungen von NO zu tun hätte.” Ohne dies zu überprüfen, übernahm die EU diesen Wert als gesetzlichen Grenzwert. “Bis heute gibt es keine belastbaren Daten, die den 40 Mikrogramm-Grenzwert stützen.

Der Stickstoffdioxid- Grenzwert ist somit schlichtweg erfunden worden.

Nachtrag:
Sebastian Viehmann: “Das ist Volksverdummung”. Das Diesel-Desaster: Neue Dokumentation zeigt Irrsinn von Fahrverboten, in: Focus Online 09.01.2019
Das Diesel Desaster ARD 07.01.2019 Verfügbar bis 07.01.2020

Sind statistische Daten Fakten?

In einem Artikel vom 02.11.2018 der Neuen Zürcher Zeitung schildert der Artikel “Das Bundesamt für Statistik schafft die Fakten für die Schweizer Demokratie. Dann macht es einen Fehler”   , wie statistische Daten offiziell verändert wurden:

“Die Statistik zur Ausschaffung von kriminellen Ausländern zeigte, dass der Staat angeblich nur 54 Prozent von ihnen ausgeschafft hatte ­– die Zahl suggerierte, dass die anderen als Härtefalle eingestuft und deshalb nicht des Landes verwiesen worden waren. Das Thema ist brisant, bisher liess sich der Effekt der Ausschaffungsinitiative nicht in Zahlen fassen. Nach der ersten Entrüstung rechnete das BfS neu: 69 Prozent. Dann löschte es die Statistik ganz von der Website.”

Sind Daten komplex, so dass sie einer Komplexitätsreduktion bedürfen, um verständlich zu sein? Sind statistische Daten Fakten oder sind sie Interpretationen? Auf welche Interpretationen einigt man sich oder sind die Interpretationen Fake-News?

“«Natürlich ist Statistik hochpolitisch», sagt Ulrich. Denn was gemessen wird und wie, ist politisch, wen man fragt und welche Fragen man stellt. «Es gibt keine Wahrheit, man kann sich nur einig sein, was man messen will.» Wie hoch ist die Armut? Die Bildung? Das Bruttoinlandprodukt? Mit den Indikatoren macht man Politik, weil man sich auf sie geeinigt hat. «Aber am Ende sucht sich in der Statistik jeder seine eigene Wahrheit, das war schon immer so», sagt Ulrich.”

“Die zurückgezogenen Ausschaffungszahlen des BfS zeigen, dass man sich immer wieder neu einigen muss, was die Fakten sind und wie sie geschaffen werden. Die Fake-News-Rufe aber haben einen Zweifel gesät: daran, dass es so etwas gibt wie Fakten, dass es überhaupt etwas gibt, worauf man sich geeinigt hat in diesem Land.”

Daten als Stimmungsaufheller-Fake

Neben der Funktion als Menetekel dienen Daten auch zur Stimmungsaufhellung:

Buchseite 1 von 2
1 2