Filterblase bei Google?

Die Personalisierung von Suchergebnissen der Suchmaschinen und die Vernetzung der sozialen Netzwerke hat Vor- und Nachteile. Wenn ich mich für Golf als Sport interessiere und Treffer, die sich mit dem Auto oder dem Golfstrom befassen, nicht anklicke, zeigen die Algorithmen mir in Zukunft  ähnliche Treffer und die dazugehörige Werbung an. Je häufiger ich bestimmte Seiten anklicke, desto häufiger werden sie angezeigt. Im Extremfall wird mir die eigene Webseite an einer der ersten Stelle der Suchergebnisse angezeigt, weil sie ständig kontrolliert und aufgerufen wird, während sie für alle anderen Nutzer fast unsichtbar ist. Auch das Gerät, PC, Tablet, Handy mit Betriebssystem und Browser werden ausgelesen. Bei der gleichen Suchfrage erhält man mit unterschiedlichen Geräten unterschiedliche Suchergebnisse und teilweise auch unterschiedliche Preise in Internetshops und bei der Buchung von Reisen.
Ob daraus eine Filterblase entsteht, ist umstritten. Siehe z.B. Sebastian Meinek: Deshalb ist “Filterblase” die blödeste Metapher des Internets, motherboard 9.3.2018 
Auf jeden Fall kann ich dem als Benutzer aktiv entgegentreten, indem ich Suchverlauf und Cookies regelmäßig lösche, den Browser durch ergänzende Tools wie Ghostery absichere oder noch besser, von vornherein in einer virtuellen Umgebung unterwegs bin. Außerdem bin ich als Benutzer aktiv gefordert und nicht willenloses Objekt der Suchmaschine: Fuck the Bubble: So bringst du deine Filterblase zum Platzen

Konkrete Untersuchungen zu den Auswirkungen der Personalisierung sind leider bislang nicht überzeugend. Das
Forschungsprojekt “#Datenspende: Google und die Bundestagswahl 2017”  hat sich jetzt dieser Problematik gewidmet. Die Untersuchung beruht auf der Suche nach 9 Politikern und Parteien, die in regelmäßigen Abständen wiederholt wurden. Als Ergebnis stellte sich heraus, dass die Suchergebnisse nur unwesentlich voneinander abweichen.
Die Problematik bei dieser Studie liegt bei der Art der Suchfragen. Sie beschränken sich auf das, was man im Retrieval Known-Item-Search bezeichnet, die Suche nach Fakten, die man schon vorher kennt. Die Aussagekraft ist also sehr begrenzt. Welche Folgen Personalisierung unter welchen Umständen auf die Informationsversorgung haben kann, ist damit nicht geklärt.

Daten als Menetekel 3: 500000 Zuwanderer

Wie man aus einem Frühjahrsgutachten der Wirtschaftsinstitute Menetekel- Fake-News macht

“Wir brauchen Rente mit 70 – oder 500.000 Zuwanderer im Jahr” titelt die WELT https://www.welt.de/wirtschaft/article175616647/Wir-brauchen-Rente-mit-70-oder-500-000-Zuwanderer-im-Jahr.html 19.04.2018 und fährt im Artikel fort:
“Um die Beitragssätze angesichts der neusten Versprechen der Regierung stabil zu halten, sehen die Forscher nur zwei Optionen: Entweder die Deutschen arbeiten künftig bis über 70. Oder sie gewinnen junge, erwerbstätige Zuwanderer. In dem Fall müssten den Berechnungen zufolge jährlich mehr als 500.000 Menschen ins Land kommen.”

Mit dem entsprechenden Tenor ging diese Meldung durch die anderen Medien.

Im Frühjahrsgutachten der Wirtschaftsinstitute S. 61 steht das genaue Gegenteil:
“Ein Anstieg des Beitragssatzes zur Gesetzlichen Rentenversicherung könnte zwar grundsätzlich durch eine Erhöhung des Renteneintrittsalters über 67 Jahre hinaus oder durch eine höhere Zuwanderung jüngerer Erwerbstätiger verhindert werden. Beides scheint jedoch angesichts der notwendigen Größenordnungen wenig realistisch: Um den Beitragssatz zur Gesetzlichen Rentenversicherung nach Einführung der geplanten Leistungsausweitungen langfristig auf 20 Prozent zu deckeln, müsste das Renteneintrittsalter rechnerisch auf über 70 Jahre steigen oder die Zuwanderung jüngerer Erwerbstätiger in jedem Jahr über 500.000 Personen betragen.”

Sie fordern also weder das eine noch das andere, sondern kritisieren die Rentenerhöhung der Bundesregierung.

Kann Vertrauen digital erzeugt werden?

Der Blockchain-Hype setzt darauf, dass die Prozesse und das Datenmanagment sicher und effektiver ablaufen. Sind dadurch gleichzeitig die Inhalte glaubwürdiger? Kann Vertrauen digital erzeugt werden? Kai Stinchcombe, Chef eines Finanzdienstleisters, sagt nein:

“Blockchain systems do not magically make the data in them accurate or the people entering the data trustworthy, they merely enable you to audit whether it has been tampered with. A person who sprayed pesticides on a mango can still enter onto a blockchain system that the mangoes were organic. A corrupt government can create a blockchain system to count the votes and just allocate an extra million addresses to their cronies. An investment fund whose charter is written in software can still misallocate funds.”

Das eigentliche Problem seien nach wie vor die Voraussetzungen und die Vertrauenswürdigkeit der Daten, die am Anfang der Prozesskette stehen.

Kai Stinchcombe: Blockchain is not only crappy technology but a bad vision for the future, Medium 05.04.2018

Sieht so das Internet der Zukunft aus? Die Blockchain soll das Geschäftsleben revolutionieren und eine neue Ära der Demokratie einläuten. Nun gibt es erste Dienste, die erahnen lassen, wohin die Reise geht. Tagesanzeiger 10.07.2018 

Das Web: Saugt es uns aus – oder saugt es uns auf?

Maurizio Ferraris Professor für theoretische Philosophie an der Universität Turin nähert sich den Fragen “Was ist das Web?” und “Worin besteht unsere Aufgabe im Netz?”, mit einem Aufsatz “Das Web: Saugt es uns aus – oder saugt es uns auf?” Neue Zürcher Zeitung vom 1.7.2018, indem er sechs Dilemmata skizziert. Dilemma “bezeichnet eine Situation, die zwei Möglichkeiten der Entscheidung bietet, die beide zu einem unerwünschten Resultat führen”

(mehr …)

Daten als Menetekel 2: 100 000 Rehkitze

In dem Artikel der FAZ von Erik HechtTausende tote Rehe erfunden. Die Spur führt nach Hamburg vom 14.07.2018 , wird nachgewiesen, dass die Zahl von 100 000 Rehkitzen, die in Deutschland auf Wiesen durch Mähmaschinen sterben, von der Deutschen Wildtier Stiftung erfunden wurde. Die reale Zahl kann nur geschätzt werden und liegt vermutlich bei der Hälfte. So traurig der Tod jedes einzelnen Rehkitzes auch ist, zeigt sich hier wieder, dass es in fast allen Bereichen normal ist, mit rein erfundenen Daten die öffentliche Meinung zu beeinflussen.

Daten als Menetekel 1:6000 Tote

Laut Umweltbundesamt sollen jedes Jahr 6000 Menschen in Deutschland vorzeitig durch Stickoxid sterben.  In mehreren Artikel ist diese Zahl kritisiert worden, z.B. Jan Fleischhauer, Kampf gegen den Diesel. Die erfundenen Toten, in: Spiegel Online 15.03.2018  Epidemiologische Studien können nur Korrelationen aufzeigen, aber keine Kausalitäten beweisen.

Dazu die Präsidentin des Umweltbundesamtes (UBA) , Maria Krautzberger : “Wir diskutieren im Amt immer wieder, wie man über komplizierte Daten sprechen kann, die wir erheben. Wann müssen wir vereinfachen, damit wir verstanden werden? Regierungen brauchen solche Zahlen und ihre Vergleichbarkeit, um die Summe der Gesundheitsrisiken für die Menschen zu kennen und zu wissen, wo sie etwas tun müssen.”

Kurzum: die Daten sind erfunden worden. Dieser Umgang mit Daten zeigt ein spezifisches Verhältnis zum Bürger auf. Ihm soll nicht Einsicht in die Risiken vermittelt und danach im politischen Diskurs ermittelt werden, welche Risiken mit welchem Aufwand verringert werden könnten. Er bleibt Objekt der Propaganda und darf eins nicht erfahren: Kühe könnten in Sachen Stickoxid eventuell gefährlicher sein als Autos.

Die Konstruktion einer fiktiven Wirklichkeit mit korrelierenden Daten

Fiktive Wirklichkeit wird nicht zuletzt mit Hilfe von Daten konstruiert. Ein beliebtes Mittel ist dabei, Korrelationen statistischer Daten in Kausalzusammenhänge umzudeuten. Ein sehr guter Artikel von Christian Stöcker: Bestsellerautor über “Einsamkeit Die Methode Spitzer”, in: Spiegel Online 11.03.2018 analysiert die Methode, wie Bestsellerautoren Meinungstrends setzen, ohne dass eine sachliche oder wissenschaftliche Grundlage gegeben ist. Es geht um das Buch von Manfred Spitzer: Einsamkeit. Die unerkannte Krankheit. Droemer Verlag 2018 ISBN: 978-3-426-27676-1.

(mehr …)

Millionshort

Die Suchmaschine mit Filter

Million Short ist eine in Kanada seit 2012 entwickelt Suchmaschine, die dem Benutzer gerade die nicht am häufigsten angezeigten oder mit Suchmaschinenoptimierung präparierten Webseiten erschließen will.
Das “Mission Statment”: “Million Short’s mission is to guide people on the road less traveled by providing alternate methods of organizing, accessing, and discovering the vast web of information that is the Internet.”
Million Short benutzt dafür die API von Bing und ermittelt mit eigenen Crawlern die auszuschließenden Seiten. Filter können außerdem nach E-Commerce, Live-Chat, Datum und Land gesetzt werden.