Sechs Digitalisierungsmythen

Veröffentlicht am

„Welche sozialen und politischen Konsequenzen haben automatisierte Entscheidungen von Computern? Wie beeinflussen sie unser alltägliches Leben? Und was passiert, wenn Maschinen diskriminieren? Diskutiert man über die Digitalisierung, geht es immer auch um diese Fragen.“ Diese Fragen stellt Jürgen Geuter: Nein, Ethik kann man nicht programmieren. Ethik kann man in Code festschreiben und künstliche Intelligenz ist in 20 Jahren besser als der Mensch? Nein. Sechs Digitalisierungsmythen, über die wir reden müssen, in: ZEIT Online vom 27.11.2018:
Irrtum 1: Die Anwendung von Ethik kann man in Computerprogrammen formulieren
Ethische Entscheidungsprozesse sind komplexe soziale und psychologische Vorgänge, die trotz identischer ethischer Regeln je nach sozialem, politischem, religiösem oder kulturellem Hintergrund zu unterschiedlichen Ergebnissen führen können und deshalb im Diskurs ausgehandelt werden und nicht automatisiert werden können.
Irrtum 2: Daten erzeugen Wahrheit, und falls nicht, braucht man einfach mehr Daten
Daten selbst sind nicht neutral, sondern mit impliziten Annahmen befrachtet, die sichtbar, analysierbar und zu bewerten sind. (Ich füge hinzu: Seitdem ich diesen Blog betreibe, stoße ich laufend auf Daten, die bewusst verfälscht oder sogar einfach erfunden und anschließend erfolgreich in den öffentlichen medialen Diskurs eingebracht werden.)
Irrtum 3: In 20 Jahren gibt es eine künstliche Intelligenz, die genauso gut wie oder besser ist als menschliche
„…heute populäre Technologien wie etwa neuronale Netze sind weit entfernt von allem, was wir Intelligenz nennen würden. Sie sind Systeme automatisierter Statistikanwendung, die auf extrem spezielle Anwendungsfälle trainiert wurden und auseinanderfallen, sobald die Eingabe den engen Korridor der ihnen bekannten Daten verlässt…Letztlich existiert künstliche Intelligenz nicht. Und sie ist auch nicht nah. Es existieren leistungsfähige Statistiksysteme, denen durch einen attraktiven Namen eine gewisse Magie zugesprochen werden soll. „Künstliche Intelligenz“ ist nur ein Werbebegriff.“
Irrtum 4: Diskriminierung durch Algorithmen ist schlimmer als Diskriminierung durch Menschen
Die scheinbar neutralen Entscheidungen der Computer zementieren nur die schon vorhandenen Diskriminierungsstrukturen: „Während der Entwicklung dieser Systeme automatisieren Personen bestehende, tief in organisatorische Prozesse integrierte Formen der Diskriminierung und strukturellen Gewalt.“
Irrtum 5: Gesetze und Verträge können in Code ausgedrückt werden, um ihre Anwendung zu standardisieren
Gesetze und Verträge können nur in Standardsituationen erfolgreich in Programmcode ausgedrückt werden. Zum Teil muss aber eine Situation neu interpretiert und das Recht neu ausgelegt werden.
Irrtum 6: Digitale Freiheit drückt sich in der vollständigen Autonomie des Individuums aus
Die Gleichsetzung von Open Source Software mit Freiheit setzt ein privilegiertes digital autonomes und kompetentes, aber gleichzeitig darauf reduziertes Individuum voraus. „Wenn das Internet als ein Werkzeug der Freiheit wirken soll, dann kann ein digitaler Freiheitsbegriff sich nicht in isolationistischen Individualismus flüchten.“
Der Autor schließt: „Genauso wie die Digitalisierung versucht, die Welt der Software zugänglich zu machen, muss jetzt die Sozialisierung des Digitalen vorangetrieben werden: die Gestaltung auch unseres digitalen Lebens als kommunikatives, humanes Netzwerk zum Wohle der Menschen.“

Facebook: die böse Welt der korrelierenden Daten

Veröffentlicht am

Ist Facebook schuld an den Übergriffen auf Flüchtlinge in Deutschland?

Die Studie von Karsten Müller and Carlo Schwarz: Fanning the Flames of Hate: Social Media and Hate Crime, Working Paper Series, University of Warwick No. 373 May 21, 2018 kommt zu dem Schluss: „ Our results suggest that social media can act as a propagation mechanism between online hate speech and real-life violent crime.“

Zunächst setzen die Autoren die Autoren die Nutzung der AFD-Facebook-Seite mit der Nutzung aller rechtsgerichteten Social-Media Seiten gleich. „In our setting, the share of a municipality’s population that use the AfD Facebook page is an intuitive proxy for right-wing social media use.“ Die allgemeine lokale Nutzung lokaler Medien wird mit der Nutzung der „Nutella“-Seite identifiziert: „We thus attempt to isolate the local component of social media usage that is uncorrelated with right-wing ideology by drawing on the number of users on the “Nutella Germany” page“.

Jonny Häusler fasst das Ergebnis auf WIRED zusammen: „Die Studie kommt dabei zu der Erkenntnis, dass es in kleinen wie großen, liberal wie konservativ geprägten, ärmeren und reicheren Gemeinden einen signifikanten Zuwachs an Gewalt gegen Geflüchtete gab, wenn die durchschnittliche Facebook-Nutzung in diesen Gemeinden über dem Bundesdurchschnitt lag. Kurz: Wer zu viel auf Facebook ist, wird gewalttätig gegen Geflüchtete.“

Wird man also durch die Nutzung der „Nutella“-Facebook-Seite zur Bestie? Äußerst unwahrscheinlich, aber wir wollen die Bemühungen nicht ironisieren. Es ist schwierig genug, die Auswirkungen von Internet und sozialen Medien zu untersuchen. Aber es ist und bleibt so: Korrelationen beweisen keine Kausalität. So zieht denn auch der Ökonomie-Professor Tyler Cowen auf MARGINAL REVOLUTION die nüchterne Bilanz: „As it stands right now, you shouldn’t be latching on to the reported results from this paper.“

Das Web: Saugt es uns aus – oder saugt es uns auf?

Veröffentlicht am

Maurizio Ferraris Professor für theoretische Philosophie an der Universität Turin nähert sich den Fragen „Was ist das Web?“ und „Worin besteht unsere Aufgabe im Netz?“, mit einem Aufsatz „Das Web: Saugt es uns aus – oder saugt es uns auf?“ Neue Zürcher Zeitung vom 1.7.2018, indem er sechs Dilemmata skizziert. Dilemma „bezeichnet eine Situation, die zwei Möglichkeiten der Entscheidung bietet, die beide zu einem unerwünschten Resultat führen“

(mehr …)

Page 6 of 6
1 4 5 6