Daten als Menetekel 3: 500000 Zuwanderer

Wie man aus einem Frühjahrsgutachten der Wirtschaftsinstitute Menetekel- Fake-News macht

„Wir brauchen Rente mit 70 – oder 500.000 Zuwanderer im Jahr“ titelt die WELT https://www.welt.de/wirtschaft/article175616647/Wir-brauchen-Rente-mit-70-oder-500-000-Zuwanderer-im-Jahr.html 19.04.2018 und fährt im Artikel fort:
„Um die Beitragssätze angesichts der neusten Versprechen der Regierung stabil zu halten, sehen die Forscher nur zwei Optionen: Entweder die Deutschen arbeiten künftig bis über 70. Oder sie gewinnen junge, erwerbstätige Zuwanderer. In dem Fall müssten den Berechnungen zufolge jährlich mehr als 500.000 Menschen ins Land kommen.“

Mit dem entsprechenden Tenor ging diese Meldung durch die anderen Medien.

Im Frühjahrsgutachten der Wirtschaftsinstitute S. 61 steht das genaue Gegenteil:
„Ein Anstieg des Beitragssatzes zur Gesetzlichen Rentenversicherung könnte zwar grundsätzlich durch eine Erhöhung des Renteneintrittsalters über 67 Jahre hinaus oder durch eine höhere Zuwanderung jüngerer Erwerbstätiger verhindert werden. Beides scheint jedoch angesichts der notwendigen Größenordnungen wenig realistisch: Um den Beitragssatz zur Gesetzlichen Rentenversicherung nach Einführung der geplanten Leistungsausweitungen langfristig auf 20 Prozent zu deckeln, müsste das Renteneintrittsalter rechnerisch auf über 70 Jahre steigen oder die Zuwanderung jüngerer Erwerbstätiger in jedem Jahr über 500.000 Personen betragen.“

Sie fordern also weder das eine noch das andere, sondern kritisieren die Rentenerhöhung der Bundesregierung.

Kann Vertrauen digital erzeugt werden?

Der Blockchain-Hype setzt darauf, dass die Prozesse und das Datenmanagment sicher und effektiver ablaufen. Sind dadurch gleichzeitig die Inhalte glaubwürdiger? Kann Vertrauen digital erzeugt werden? Kai Stinchcombe, Chef eines Finanzdienstleisters, sagt nein:

„Blockchain systems do not magically make the data in them accurate or the people entering the data trustworthy, they merely enable you to audit whether it has been tampered with. A person who sprayed pesticides on a mango can still enter onto a blockchain system that the mangoes were organic. A corrupt government can create a blockchain system to count the votes and just allocate an extra million addresses to their cronies. An investment fund whose charter is written in software can still misallocate funds.“

Das eigentliche Problem seien nach wie vor die Voraussetzungen und die Vertrauenswürdigkeit der Daten, die am Anfang der Prozesskette stehen.

Kai Stinchcombe: Blockchain is not only crappy technology but a bad vision for the future, Medium 05.04.2018

Sieht so das Internet der Zukunft aus? Die Blockchain soll das Geschäftsleben revolutionieren und eine neue Ära der Demokratie einläuten. Nun gibt es erste Dienste, die erahnen lassen, wohin die Reise geht. Tagesanzeiger 10.07.2018 

Das Web: Saugt es uns aus – oder saugt es uns auf?

Maurizio Ferraris Professor für theoretische Philosophie an der Universität Turin nähert sich den Fragen „Was ist das Web?“ und „Worin besteht unsere Aufgabe im Netz?“, mit einem Aufsatz „Das Web: Saugt es uns aus – oder saugt es uns auf?“ Neue Zürcher Zeitung vom 1.7.2018, indem er sechs Dilemmata skizziert. Dilemma „bezeichnet eine Situation, die zwei Möglichkeiten der Entscheidung bietet, die beide zu einem unerwünschten Resultat führen“

(mehr …)

Daten als Menetekel 2: 100 000 Rehkitze

In dem Artikel der FAZ von Erik HechtTausende tote Rehe erfunden. Die Spur führt nach Hamburg vom 14.07.2018 , wird nachgewiesen, dass die Zahl von 100 000 Rehkitzen, die in Deutschland auf Wiesen durch Mähmaschinen sterben, von der Deutschen Wildtier Stiftung erfunden wurde. Die reale Zahl kann nur geschätzt werden und liegt vermutlich bei der Hälfte. So traurig der Tod jedes einzelnen Rehkitzes auch ist, zeigt sich hier wieder, dass es in fast allen Bereichen normal ist, mit rein erfundenen Daten die öffentliche Meinung zu beeinflussen.

Daten als Menetekel 1:6000 Tote

Laut Umweltbundesamt sollen jedes Jahr 6000 Menschen in Deutschland vorzeitig durch Stickoxid sterben.  In mehreren Artikel ist diese Zahl kritisiert worden, z.B. Jan Fleischhauer, Kampf gegen den Diesel. Die erfundenen Toten, in: Spiegel Online 15.03.2018  Epidemiologische Studien können nur Korrelationen aufzeigen, aber keine Kausalitäten beweisen.

Dazu die Präsidentin des Umweltbundesamtes (UBA) , Maria Krautzberger : „Wir diskutieren im Amt immer wieder, wie man über komplizierte Daten sprechen kann, die wir erheben. Wann müssen wir vereinfachen, damit wir verstanden werden? Regierungen brauchen solche Zahlen und ihre Vergleichbarkeit, um die Summe der Gesundheitsrisiken für die Menschen zu kennen und zu wissen, wo sie etwas tun müssen.“

Kurzum: die Daten sind erfunden worden. Dieser Umgang mit Daten zeigt ein spezifisches Verhältnis zum Bürger auf. Ihm soll nicht Einsicht in die Risiken vermittelt und danach im politischen Diskurs ermittelt werden, welche Risiken mit welchem Aufwand verringert werden könnten. Er bleibt Objekt der Propaganda und darf eins nicht erfahren: Kühe könnten in Sachen Stickoxid eventuell gefährlicher sein als Autos.

Die Konstruktion einer fiktiven Wirklichkeit mit korrelierenden Daten

Fiktive Wirklichkeit wird nicht zuletzt mit Hilfe von Daten konstruiert. Ein beliebtes Mittel ist dabei, Korrelationen statistischer Daten in Kausalzusammenhänge umzudeuten. Ein sehr guter Artikel von Christian Stöcker: Bestsellerautor über „Einsamkeit Die Methode Spitzer“, in: Spiegel Online 11.03.2018 analysiert die Methode, wie Bestsellerautoren Meinungstrends setzen, ohne dass eine sachliche oder wissenschaftliche Grundlage gegeben ist. Es geht um das Buch von Manfred Spitzer: Einsamkeit. Die unerkannte Krankheit. Droemer Verlag 2018 ISBN: 978-3-426-27676-1.

(mehr …)

Millionshort

Die Suchmaschine mit Filter

Million Short ist eine in Kanada seit 2012 entwickelt Suchmaschine, die dem Benutzer gerade die nicht am häufigsten angezeigten oder mit Suchmaschinenoptimierung präparierten Webseiten erschließen will.
Das „Mission Statment“: „Million Short’s mission is to guide people on the road less traveled by providing alternate methods of organizing, accessing, and discovering the vast web of information that is the Internet.“
Million Short benutzt dafür die API von Bing und ermittelt mit eigenen Crawlern die auszuschließenden Seiten. Filter können außerdem nach E-Commerce, Live-Chat, Datum und Land gesetzt werden.

 

Qwant: Interview zum Geschäftsmodell

In der Frankfurter Rundschau ist ein Interview mit Eric Léandri, 14.04.2018 Chef der europäischen Suchmaschine Qwant, erschienen. Er stellt sein Geschäftsmodell vor. Besonders wird betont, dass Qwant kein Benutzer-Tracking macht und Resultate neutral darstellt.

Unklar bleibt, auf welcher Datenbasis Qwant arbeitet: „Wir arbeiten gerade mit Hochdruck daran, einen eigenen kompletten Index mit allen Seiten, die bei Suchen durchforstet werden, aufzubauen, um eine echte eigene Suchmaschine für Europa zu bieten. „Wahrscheinlich werden allerdings hauptsächlich Daten von der Schnittstelle von Bing übernommen, obwohl offiziell behauptet wird, dass eine formale Kooperation zwischen Qwant und Bing nicht besteht: „Die allgemeine „Netz“-Spalte in Deutschland sei statt dessen eine bunte Mischung aus verschiedenen öffentlich zugänglichen Netzquellen, wie das auch die Meta-Suchmaschine Duckduckgo macht. “ (Qwant zeigt Google die Zähne, DW 12.04.2014)

Die Suchergebnisse werden mit eigener Gewichtung angezeigt: „Wir wollen nicht Google sein, und wir wollen Google nicht kopieren. Wir arbeiten längst mit unserem eigenen Algorithmus bei der Auflistung der Suchergebnisse, der mehrere Jahre getestet wurde.“

Das entscheidende – und daher auch geheimgehaltene  -Kriterium ist aber, ob zeitnah Inhalte durchsucht und ein umfassender Index aufgebaut werden kann. Wir erinnern uns an eine Suchmaschine Cuil, die von ehemaligen Google Mitarbeitern gegründet wurde.  Sie behauptete, einen drei Mal größeren Index als Google zu haben und ebenfalls Nutzerdaten nicht zu tracken. Cuil wurde nach zwei Jahren abgeschaltet, nachdem das Risikokapital aufgebraucht war.

Quaero: Der Mythos von der europäischen Suchmaschine

Quaero (lateinisch: „Ich suche“) war ein französisch-deutsches Konsortialprojekt, an der über 30 Organisationen beteiligt und mehrere hundert Millionen Euro als Subvention verteilt wurden. Es wäre eine wichtige wissenschaftliche Arbeit, dies aufzuarbeiten. Wir müssen uns aus Zeitmangel mit drei Wikipedia-Eintragungen

https://fr.wikipedia.org/wiki/Quaero
https://de.wikipedia.org/wiki/Quaero
https://en.wikipedia.org/wiki/Quaero

und mit zwei kleinen Anfragen und zwei mündlichen Fragen des Bundestags bescheiden.

http://dip21.bundestag.de/dip21/btd/16/024/1602492.pdf#page=7 ,
http://dip21.bundestag.de/dip21/btd/16/035/1603565.pdf „Deutsch-Französisches Innovationsprojekt einer europäischen Suchmaschine Quaero“, http://dipbt.bundestag.de/doc/btd/16/041/1604102.pdf#page=12 , http://dip21.bundestag.de/dip21/btd/16/046/1604671.pdf
Aktuelle Entwicklungen des Suchmaschinenprojektes Theseus – ehemals Quaero
https://de.wikipedia.org/wiki/Theseus_(Forschungsprogramm)

(mehr …)

Alternative Suchmaschinen 2: Indizes

Ob man durch Anklicken von Werbeeinschaltungen Bäume in Afrika pflanzen kann https://www.ecosia.org/ mit Happiness Officer als Personal oder aber eine ernsthafte Alternative versucht wie metager – www.metager.de. Das Problem bleibt: Wo kommen die Daten, die Suchindizes her? Fast alle übernehmen ihre Daten von den Programmierschnittstellen (API) von Google und Bing/ Yahoo. Dafür muss entweder bezahlt werden, die Schaltung von Anzeigen oder die Übertragung von Nutzerdaten akzeptiert werden. Einige der alternativen Suchmaschinen lassen noch zusätzliche Crawler laufen über einige spezielle Gebiete. Aber sie sind nicht Herr der Daten. Wenn Google und Bing/Yahoo ihre API einstellen, sind sämtliche dieser Geschäftsmodelle zerstört, denn mit einem Crawler über Wikipedia und Chefkoch lässt sich keine überzeugende Suchmaschine erstellen.

Das Interesse von Google ist klar: Google hat das Monopol, und wenn man dieses angreifen und den Konzern zerschlagen sollte, ist diese API eine Argumentation, dass man der Konkurrenz selbst sogar Daten anbietet. Es ist im Grunde ein Baustein zur Aufrechterhaltung des Monopols.

Wo kommen die Daten her?

www.startpage.com Google
www.metager.de Yahoo (sowie eine Reihe von weiteren Suchmaschinen und Seiten, mit Klick auf dem + über der Suchleiste anzusehen)
www.qwant.com Bing sowie „eine bunte Mischung aus verschiedenen öffentlich zugänglichen Netzquellen“ Qwant zeigt Google die Zähne, DW 12.04.2014
https://duckduckgo.com/ Yahoo, Yummly (Rezepte), Wikipedia

Dass Erstaunliche ist, dass diese Überblicke behaupten, die Suchergebnisse seien so gut wie die Suche mit Google – was meinen Erfahrungen eindeutig widerspricht.

Völlig ausgeblendet bleiben Baidu und Yandex , die nach Meinung von Suchmaschinenexperten jeweils selbständig einen Index aufbauen.

Buchseite 40 von 41
1 38 39 40 41