Sechs Digitalisierungsmythen

Veröffentlicht am

„Welche sozialen und politischen Konsequenzen haben automatisierte Entscheidungen von Computern? Wie beeinflussen sie unser alltägliches Leben? Und was passiert, wenn Maschinen diskriminieren? Diskutiert man über die Digitalisierung, geht es immer auch um diese Fragen.“ Diese Fragen stellt Jürgen Geuter: Nein, Ethik kann man nicht programmieren. Ethik kann man in Code festschreiben und künstliche Intelligenz ist in 20 Jahren besser als der Mensch? Nein. Sechs Digitalisierungsmythen, über die wir reden müssen, in: ZEIT Online vom 27.11.2018:
Irrtum 1: Die Anwendung von Ethik kann man in Computerprogrammen formulieren
Ethische Entscheidungsprozesse sind komplexe soziale und psychologische Vorgänge, die trotz identischer ethischer Regeln je nach sozialem, politischem, religiösem oder kulturellem Hintergrund zu unterschiedlichen Ergebnissen führen können und deshalb im Diskurs ausgehandelt werden und nicht automatisiert werden können.
Irrtum 2: Daten erzeugen Wahrheit, und falls nicht, braucht man einfach mehr Daten
Daten selbst sind nicht neutral, sondern mit impliziten Annahmen befrachtet, die sichtbar, analysierbar und zu bewerten sind. (Ich füge hinzu: Seitdem ich diesen Blog betreibe, stoße ich laufend auf Daten, die bewusst verfälscht oder sogar einfach erfunden und anschließend erfolgreich in den öffentlichen medialen Diskurs eingebracht werden.)
Irrtum 3: In 20 Jahren gibt es eine künstliche Intelligenz, die genauso gut wie oder besser ist als menschliche
„…heute populäre Technologien wie etwa neuronale Netze sind weit entfernt von allem, was wir Intelligenz nennen würden. Sie sind Systeme automatisierter Statistikanwendung, die auf extrem spezielle Anwendungsfälle trainiert wurden und auseinanderfallen, sobald die Eingabe den engen Korridor der ihnen bekannten Daten verlässt…Letztlich existiert künstliche Intelligenz nicht. Und sie ist auch nicht nah. Es existieren leistungsfähige Statistiksysteme, denen durch einen attraktiven Namen eine gewisse Magie zugesprochen werden soll. „Künstliche Intelligenz“ ist nur ein Werbebegriff.“
Irrtum 4: Diskriminierung durch Algorithmen ist schlimmer als Diskriminierung durch Menschen
Die scheinbar neutralen Entscheidungen der Computer zementieren nur die schon vorhandenen Diskriminierungsstrukturen: „Während der Entwicklung dieser Systeme automatisieren Personen bestehende, tief in organisatorische Prozesse integrierte Formen der Diskriminierung und strukturellen Gewalt.“
Irrtum 5: Gesetze und Verträge können in Code ausgedrückt werden, um ihre Anwendung zu standardisieren
Gesetze und Verträge können nur in Standardsituationen erfolgreich in Programmcode ausgedrückt werden. Zum Teil muss aber eine Situation neu interpretiert und das Recht neu ausgelegt werden.
Irrtum 6: Digitale Freiheit drückt sich in der vollständigen Autonomie des Individuums aus
Die Gleichsetzung von Open Source Software mit Freiheit setzt ein privilegiertes digital autonomes und kompetentes, aber gleichzeitig darauf reduziertes Individuum voraus. „Wenn das Internet als ein Werkzeug der Freiheit wirken soll, dann kann ein digitaler Freiheitsbegriff sich nicht in isolationistischen Individualismus flüchten.“
Der Autor schließt: „Genauso wie die Digitalisierung versucht, die Welt der Software zugänglich zu machen, muss jetzt die Sozialisierung des Digitalen vorangetrieben werden: die Gestaltung auch unseres digitalen Lebens als kommunikatives, humanes Netzwerk zum Wohle der Menschen.“

Bundesgesetzblatt als Open Source

Veröffentlicht am

https://offenegesetze.de

Christian Endt: Aktivisten stellen alle Bundesgesetzblätter ins Netz, Süddeutsche Zeitung 10.12.2018

Jedes Gesetz enthält eine zweifache Fiktion. Einmal entwirft es einen denkbaren Zustand, der sprachlich benannt, aber erst durch die Androhung und den realen Vollzug von Sanktionen durchgesetzt werden muss. Zum anderen enthält die Verkündung des Gesetzes die Fiktion, dass damit das Gesetz dem Bürger schon bekannt geworden ist. Diese Fiktion wird juristisch aber „unwiderlegliche Vermutung“ genannt und statt der tatsächlichen Kenntnisnahme reicht die Möglichkeit der Kenntnisnahme aus. Ansonsten könnte Recht als selbstreferentielles System gar nicht funktionieren. Es ist die Grundlage der Geltung des Gesetzes, an das sich der Bürger im Anschluss an die Verkündung zu halten hat.

Umso absurder ist es, wenn man die Verkündungsblätter – wie beim Bundesgesetzblatt und auch bei einigen Gesetz- und Verordnungsblättern der Länder geschehen – hinter einer Bezahlschranke versteckt. Dabei heißt „verstecken“ auch, wenn man lediglich eine „Nur-Lese-Version“ anbietet, die nicht ausgedruckt werden kann. Man könnte sogar die Frage stellen, ob damit eine ordnungsgemäße Verkündung erfolgt ist.
(mehr …)

Daten als Menetekel 7: Mehr als ein Viertel der Tweets zum Migrationspakt Social Bots?

Veröffentlicht am

Am 10.12.2018 ist der WELT ein Artikel von Jan Lindenau: Roboter mobilisieren gegen Migrationspakt (hinter der Bezahlschranke) erschienen. Danach hat die Firma Botswatch eine Analyse von 800.000 Tweets zwischen dem 24. November und dem 2. Dezember ausgewertet. Als Ergebnis gibt sie bekannt, dass über ein Viertel dieser Tweets Social Bots gewesen seien, die inhaltlich Stimmung gegen den Migrationspakt gemacht hätten. Diese Meldung wurde in der gesamten deutschen Presse verbreitet.

Allerdings wurde die Analyse selbst und die Methodik, die als Geschäftsgeheimnis proklamiert wird, nicht offengelegt. Dies und die nicht nachvollziehbaren Ergebnisse stießen auf erhebliche Kritik von Experten. Der Social-Media Analyst Luca Hammer hat auf Twitter die Aussagen einer Kritik unterzogen. Er stellt bei einer Stichprobe fest, dass der Anteil der Bots – darunter allerdings auch automatisierte Informationsbots der Presse  – bei etwa 6 Prozent liegt. Der Datenjournalist Michael Kreil hat einen offenen Brief an Botswatch geschrieben:

„Wir brauchen dringend wissenschaftliche basierte, methodisch korrekte Analysen dieser Vorgänge! Was wir nicht brauchen, sind Akteur_innen, die mit unbewiesenen Behauptungen den Diskurs entführen, Panik und Verunsicherung verbreiten, und die Bundesregierung unzureichend beraten. Für mich ist es momentan nicht unterscheidbar, welche Position Sie mit botswatch einnehmen möchten. Daher bitte ich Sie, Frau Wilke, geben Sie die Methoden und Daten Ihrer Untersuchung „Social Bots und Migrationspakt“ für eine unabhängige, wissenschaftliche Überprüfung frei.“

Der Verlauf der Diskussion wird in den Artikeln von Robert Tusch: Kritik an Botswatch: Warum die Debatte um die Social Bot-Studie zum Migrationspakt für Medien wichtig ist, in: Meedia vom 12.12.2018 sowie von Markus Reuter: Ein Bot allein macht keine Revolte. Und auch keine Migrationsdebatte, in: netzpolitik.org vom 10.12.2018 wiedergegeben. Dort wird auch auf die methodischen Probleme bei der Erkennung von Bots und andere Formen von Accounts eingegangen, die für die politische Einflussnahme im Netz wichtiger sind. „Alleine angesichts der Einflussmöglichkeiten menschlich betriebener Accounts, ist es schlichtweg unseriös und unterkomplex soziale Bewegungen oder hart umkämpfte gesellschaftliche Diskurse mit Bots erklären zu wollen.“

Jonas Hermann: Haben Bots die Debatte um den Migrationspakt einseitig beeinflusst?, Neue Zürcher Zeitung vom 13.12.2018    fasst noch einmal die Kritik und die Diskussion zusammen. Er weist auf die engen personellen Verbindungen von Botswatch zur CDU hin.

„Die Bot-Analyse wurde am Tag der Verabschiedung des Migrationspakts publik. Das mag Zufall sein oder auch nicht. Sicher ist jedenfalls, dass sie herangezogen werden kann, um Kritiker des Paktes zu diskreditieren und die Debatte darüber als aufgeblasen und fremdgesteuert darzustellen.“

Somit kann es sein, dass nicht Social Bots, sondern frei erfundene Daten über Social Bots den politischen Diskurs beinflussen sollten.

Daten als Menetekel 6: Stickstoffdioxid-Grenzwert erfunden

Veröffentlicht am

Alexander Kekulé, Direktor des Instituts für Medizinische Mikrobiologie des Universitätsklinikums Halle (Saale), hat in der ZEIT vom 08.11.2018 – online hinter der Bezahlschranke  – einen Artikel verfasst „Hysterie ums Falsche. der Grenzwert 40 Mikrogramm für das Auspuffgas ist aus der Luft gegriffen.“ Als Faksimile noch zu lesen auf http://www.gegenwind-saarland.de/Klimawandel/181108-ZEIT—Hysterie-um-NO2.mrkd.pdf . Eine verkürzte Fassung ist im Tagesspiegel  vom 10.11.2018 erschienen, allerdings nicht mehr auf der Online-Seite des TAGESSPIEGEL vorhanden, sondern nur noch über PPRESSREADER. https://www.pressreader.com/germany/der-tagesspiegel/20181110/281715500636547

Danach beschloss die EU 1993, langfristige Luftqualitätsziele, u.a. einen strengen Grenzwert für NO festzulegen. Die Legitimation eines solchen Wertes musste  auf Arbeiten der Weltgesundheitsorganisation WHO beruhen. Um den damals gültigen WHO-Richtwert von 150 Mikrogramm zu reduzieren, wurde dort eine Arbeitsgruppe gebildet, die sich einer Metaanalyse aus einem fünf Jahr älteren Bericht der US-Umweltbehörde bediente. Laut Kekulé wertete die Metaanalyse verschiedene Forschungsarbeiten aus, deren Parameter aber völlig unterschiedlich waren. Trotz dieser völlig unterschiedlicher Einflussfaktoren wurde als Ergebnis festgehalten, „dass Atemwegserkrankungen in Haushalten mit Gasherd um 20 Prozent häufiger sind als in Haushalten mit Elektroherd“. Allerdings konnten daraus keine Messwerte abgeleitet werden, da in Haushalten mit Gasherd sehr unterschiedliche Konzentrationen (8 – 2500 Mikrogramm) festgestellt wurden. „Mangels brauchbarer Daten schätzten die Gutachter kurzerhand, dass ein Gasherd die mittlere jährliche NO-Konzentration im Haushalt auf ungefähr 40 Mikrogramm erhöht, und schlugen diese Größe als Richtwert vor. Bis heute gibt es keinen Beleg dafür, dass die Zahl irgendetwas mit den gesundheitlichen Auswirkungen von NO zu tun hätte.“ Ohne dies zu überprüfen, übernahm die EU diesen Wert als gesetzlichen Grenzwert. „Bis heute gibt es keine belastbaren Daten, die den 40 Mikrogramm-Grenzwert stützen.

Der Stickstoffdioxid- Grenzwert ist somit schlichtweg erfunden worden.

Sind statistische Daten Fakten?

Veröffentlicht am

In einem Artikel vom 02.11.2018 der Neuen Zürcher Zeitung schildert der Artikel „Das Bundesamt für Statistik schafft die Fakten für die Schweizer Demokratie. Dann macht es einen Fehler“   , wie statistische Daten offiziell verändert wurden:

„Die Statistik zur Ausschaffung von kriminellen Ausländern zeigte, dass der Staat angeblich nur 54 Prozent von ihnen ausgeschafft hatte ­– die Zahl suggerierte, dass die anderen als Härtefalle eingestuft und deshalb nicht des Landes verwiesen worden waren. Das Thema ist brisant, bisher liess sich der Effekt der Ausschaffungsinitiative nicht in Zahlen fassen. Nach der ersten Entrüstung rechnete das BfS neu: 69 Prozent. Dann löschte es die Statistik ganz von der Website.“

Sind Daten komplex, so dass sie einer Komplexitätsreduktion bedürfen, um verständlich zu sein? Sind statistische Daten Fakten oder sind sie Interpretationen? Auf welche Interpretationen einigt man sich oder sind die Interpretationen Fake-News?

„«Natürlich ist Statistik hochpolitisch», sagt Ulrich. Denn was gemessen wird und wie, ist politisch, wen man fragt und welche Fragen man stellt. «Es gibt keine Wahrheit, man kann sich nur einig sein, was man messen will.» Wie hoch ist die Armut? Die Bildung? Das Bruttoinlandprodukt? Mit den Indikatoren macht man Politik, weil man sich auf sie geeinigt hat. «Aber am Ende sucht sich in der Statistik jeder seine eigene Wahrheit, das war schon immer so», sagt Ulrich.“

„Die zurückgezogenen Ausschaffungszahlen des BfS zeigen, dass man sich immer wieder neu einigen muss, was die Fakten sind und wie sie geschaffen werden. Die Fake-News-Rufe aber haben einen Zweifel gesät: daran, dass es so etwas gibt wie Fakten, dass es überhaupt etwas gibt, worauf man sich geeinigt hat in diesem Land.“

Facebook: die böse Welt der korrelierenden Daten

Veröffentlicht am

Ist Facebook schuld an den Übergriffen auf Flüchtlinge in Deutschland?

Die Studie von Karsten Müller and Carlo Schwarz: Fanning the Flames of Hate: Social Media and Hate Crime, Working Paper Series, University of Warwick No. 373 May 21, 2018 kommt zu dem Schluss: „ Our results suggest that social media can act as a propagation mechanism between online hate speech and real-life violent crime.“

Zunächst setzen die Autoren die Autoren die Nutzung der AFD-Facebook-Seite mit der Nutzung aller rechtsgerichteten Social-Media Seiten gleich. „In our setting, the share of a municipality’s population that use the AfD Facebook page is an intuitive proxy for right-wing social media use.“ Die allgemeine lokale Nutzung lokaler Medien wird mit der Nutzung der „Nutella“-Seite identifiziert: „We thus attempt to isolate the local component of social media usage that is uncorrelated with right-wing ideology by drawing on the number of users on the “Nutella Germany” page“.

Jonny Häusler fasst das Ergebnis auf WIRED zusammen: „Die Studie kommt dabei zu der Erkenntnis, dass es in kleinen wie großen, liberal wie konservativ geprägten, ärmeren und reicheren Gemeinden einen signifikanten Zuwachs an Gewalt gegen Geflüchtete gab, wenn die durchschnittliche Facebook-Nutzung in diesen Gemeinden über dem Bundesdurchschnitt lag. Kurz: Wer zu viel auf Facebook ist, wird gewalttätig gegen Geflüchtete.“

Wird man also durch die Nutzung der „Nutella“-Facebook-Seite zur Bestie? Äußerst unwahrscheinlich, aber wir wollen die Bemühungen nicht ironisieren. Es ist schwierig genug, die Auswirkungen von Internet und sozialen Medien zu untersuchen. Aber es ist und bleibt so: Korrelationen beweisen keine Kausalität. So zieht denn auch der Ökonomie-Professor Tyler Cowen auf MARGINAL REVOLUTION die nüchterne Bilanz: „As it stands right now, you shouldn’t be latching on to the reported results from this paper.“

Analyse der politischen Twitter-Diskussion in den USA

Veröffentlicht am

John Kelly and Camille François: Connectivity. This is what filter bubbles actually look like. Maps of Twitter activity show how political polarization manifests online and why divides are so hard to bridge. MIT Technology Review 22.08.2018 beschreiben in Text und zahlreichen grafischen Darstellungen, wie sich die unterschiedlichen politischen Lager in Twitter und in der Presse niederschlagen und vergleichen dies mit Twitter Accounts in Iran, Türkei und Russland.

Daten als Stimmungsaufheller-Fake

Veröffentlicht am

Neben der Funktion als Menetekel dienen Daten auch zur Stimmungsaufhellung:

Podcasts suchen

Veröffentlicht am

Podcasts kann man beim IPhone über iTunes suchen, bei Android Geräten im Google Play Store mit dem Stichwort Podcast. Über die interne Suche in den Apps hinaus ermöglichen spezielle Webseiten das Hören und Aufnehmen von Podcast. Im Deutschen https://www.phonostar.de/, im englischsprachigen Bereich http://www.podcasts.com/,  https://www.mixcloud.com/, https://audioboom.com/, https://www.acast.com .

Spezielle Suchmaschinen ermöglichen die Suche in den Inhalten selbst, indem die gesprochene Sprache in Text umgewandelt wird: https://www.listennotes.com/, https://fluiddata.com , https://www.spaactor.com/ (deutsch)

oder aber die Metadaten ausgelesen werden (alles deutsche Suchmaschinen):

https://fyyd.de/, https://panoptikum.io/, https://wissenschaftspodcasts.de/, https://www.podcast.de

Page 1 of 4
1 2 3 4