Coronavirus: die Hölle der Normalverteilung

Veröffentlicht am

Das Forschungsteam der Universität Basel hat ein Covid19 Modellszenario entwickelt. Es zeigt je nach Land und einstellbaren Parametern die exponentielle Entwicklung des Virus und die Abflachung der Kurve, wenn Sättigungsbereiche erreicht oder aber die exponentielle Verbreitung unterbrochen werden. Sieht man dieses Modellszenario, kann nur eine einzige Handlungsmöglichkeit übrigbleiben: die radikale Unterbrechung der Infektionskette, d.h. der exponentiellen Verbreitung des Virus.

In deutschen und internationalen Medien wird jedoch stattdessen mit einem Modell einer Karikatur einer Gausschen Normalverteilungskurve gearbeitet. Karikatur deswegen, weil auf beiden Achsen die Skalierung fehlt.

Siouxsie Wiles and Toby Morris / CC BY-SA https://creativecommons.org/licenses/by-sa/4.0)

Joscha Bach Don’t “Flatten the Curve,” squash it! , https://medium.com/@joschabach/flattening-the-curve-is-a-deadly-delusion-eea324fe9727 , deutsche Übersetzung hier , hat dies analysiert und kommt zu dem Schluss:

Was alle diese Diagramme gemeinsam haben:
– Sie haben keine Zahlen an den Achsen. Es wird nicht deutlich, welche Anzahl von Fällen notwendig ist, um das Gesundheitssystem zu überlasten und über wie viele Tage sich die Epidemie erstrecken wird.
– Sie suggerieren, dass das Gesundheitssystem zum jetzigen Zeitpunkt mit einem großen Anteil der Fälle (z.B. 2/3, 1/2 oder 1/3) fertigwerden kann, und dass, wenn wir Abschwächungsmaßnahmen umsetzen, wir die Infektionen pro Tag auf ein Niveau reduzieren können, mit dem wir generell fertigwerden.
– Sie sollen uns letztendlich sagen, dass wir um so strenge Abriegelungen herumkommen, wie wir sie aktuell in China oder Italien beobachten können. Stattdessen lassen wir die Infektion sich durch die komplette Bevölkerung (langsam) ausbreiten, bis Herdenimmunität (bei 40% bis 70%) erreicht wird, indem die Infektionen auf eine längere Zeitspanne verteilt werden.

Bach trägt auf beiden Achsen Skalierungen entsprechend empirischer Daten auf und kommt zu katastrophalen Ergebnissen, die keine andere Lösung als eine rigide Eindämmung des Virus offenlassen.

Die Frage ist, wieso trotzdem mit diesem Modell der Normalverteilung gearbeitet und an ihm festgehalten wird.
Die Gausssche Normalverteilung ist zunächst ein statistisches Werkzeug, um Massendaten zu analysieren. Problematisch wird es, wenn damit Wirklichkeit modelliert werden soll. Dazu gibt es verschiedene Publikationen wie z.B. „The Myth of the Normal Curve“ . Oder wir lassen einfach das Fazit einer finanzanalytischen Analyse stehen: „Wer sich auf die Normalverteilung verlässt, blendet Risiken systematisch aus und wird irgendwann von der Realität überholt.“

Die Glockenkurve enthält ein mechanistisches Weltbild. „Foucault konstatierte, dass vom Menschen im wissenschaftlichen Sinne erst seit dem späten 18. Jh. gesprochen wird. Ein halbes Jahrhundert später taucht der mittlere Mensch auf. Es scheint, als sei der mittlere Mensch eine Orientierungsgröße, die das Individuum in der Moderne, als vielfach bedrängtes Individuum, entlasten soll. Der Durchschnittsmensch steht – so die These – für ein Verhältnis von Individualisierung und Disziplinierung“, schreiben Andreas Bischof, Mario Schulze, Hanna Steffen in ihrem Beitrag „Die Flucht ins Normale“. Nur scheinbar ist der „mittlere Mensch“ in der Individualisierung aufgelöst. In der Krise steht der Zusammenhalt in Frage und muss neu konstruiert werden. „Die Integration der Gesellschaft läuft über die Idealisierung des Durchschnitts, der Mitte. Die Gesellschaft wird nach Zentrum und Peripherie unterteilt, nachdem sie im Zuge der Individualisierung/Atomisierung ihr Zentrum verloren hat. Der Zusammenhalt steht in Frage; und gerade deswegen muss ein gesellschaftliches Zentrum mit zunehmender Vehemenz konstruiert werden. Diese Gesellschaft findet ihr Bild in der Glockenkurve.“

Dass diese mentale Disziplinierungstechnik weitgehende Akzeptanz findet, erstaunt. Das ursprüngliche Konzept, die Durchseuchung der Gesellschaft hinzunehmen, um eine – bislang nicht erwiesene – Herdenimmunität herzustellen, beinhaltet schließlich Krankheit unterschiedlicher Schwere für 60 – 80 % der Gesellschaft und die Hinnahme von Toten im fünf- bis sechsstelligen Bereich. Die sonst leicht entflammbare Empörungskultur ist verstummt. Auch wenn man inzwischen von diesem offenen Konzept abrückt, zeigen Maßnahmen, die die exponentielle Verbreitung des Virus nicht in ausreichendem Maße verhindern, ähnliche Folgen. Glücklicherweise muss quasi naturgesetzlich hierfür verantwortlich nur einer sein: die Glockenkurve.

Coronavirus mit verteilten Computern entschlüsseln

Veröffentlicht am

Folding@home ist ein Projekt der Stanford University in den USA zur Krankheitsforschung, das das die Proteinfaltung, die rechnergestützte Entwicklung von Medikamenten und andere Arten von Molekulardynamik simuliert. (Hier Beschreibung in Wikipedia.)
Jeder Benutzer eines PCs mit Windows, Mac OS X oder Linux kann ein Programm herunterladen, welches als Dienst im Hintergrund bestimmte Teilaufgaben abarbeitet und diese an den Zentralrechner in Stanford übermittelt. In diesem verteilten Computernetzwerk wird die räumliche Faltung von Proteinen simuliert, die ihre Funktion bedingt. Die Entschlüsselung könnte zum Verständnis und zu Therapien für Krebs, neurologische Krankheiten wie Alzheimer und Infektionskrankheiten wie Dengue Fieber, Zika und Ebola Virus und Hepatitis C führen.
Am 10. März hat Folding@home bekanntgegeben, dass es sich nunmehr nach Vortests auch der Entschlüsselung des Coronavirus (COVID-19) widmet.

„Folding@home team has released an initial wave of projects simulating potentially druggable protein targets from SARS-CoV-2 (the virus that causes COVID-19) and the related SARS-CoV virus (for which more structural data is available) into full production on Folding@home…
This initial wave of projects focuses on better understanding how these coronaviruses interact with the human ACE2 receptor required for viral entry into human host cells, and how researchers might be able to interfere with them through the design of new therapeutic antibodies or small molecules that might disrupt their interaction.“

Das Projekt wird ausführlich auf Github beschrieben, der aktuelle Stand ist außerdem auf dem Blog und dem Twitter-Account von Folding@home nachzuvollziehen.

Ich brauche wohl nicht extra zu betonen, wie wichtig es ist, dass sich möglichst viele an diesem Projekt beteiligen.

North Data: Transparenz im Firmengeflecht

Veröffentlicht am

North Data analysiert Handelsregisterbekanntmachungen und andere Pflichtveröffentlichungen deutscher Firmen, um Wirtschaftsinformationen zu gewinnen, insbesondere zu finanziellen Kennzahlen und zu Zusammenhängen zwischen Firmen untereinander sowie zu Personen. Dazu werden Methoden der Big-Data-Verarbeitung und der Künstlichen Intelligenz (KI) verwendet.“ Neben der Premium-Suche, die noch weitere geografische Eingrenzung und Filterung nach mehreren Parametern zulässt, ist kostenlos schon die Suche nach Gewinn- und Umsatzzahlen deutscher Firmen möglich. Dargestellt werden die Historie, das Netzwerk von Personenfunktionen (Vorstand, Prokura, Geschäftsführer usw.), Jahresabschluss/ Konzernabschluss und die Publikationsdaten.
Zu dem Hintergrund hat Digitalkaufmann in einem Blog-Beitrag „Bundesanzeiger 2.0 oder Stalking für Firmen“ ein Interview mit dem Gründer Frank Felix Debatim geführt.

Symposium Open Search

Veröffentlicht am

Die Open Search Fundation lädt ein zum Second International Symposium on Open Search Technology :

„Dear Experts, Supporters and Friends of Open Internet Search,
We are pleased to announce the 2nd international Open Search Symposium (OSSYM) to be held at CERN, Geneva, May 25-27, 2020.
Building on the networks and cooperation initiated among research groups and experts in the context of Open Search in the past years, we will reconvene for the Open Search Symposium 2020, at the cradle of the web, at CERN Geneva in this coming May. The OSSYM 2020 will provide space for networking within research communities but also connect across domains and disciplines for establishing future cooperation, partnerships and projects .
The development of an European open Internet search community and infrastructure requires know-how and contributions from many scientific and technical fields. It requires profound understanding of internet search technologies and new thinking for services and innovative applications, to be built on an open and distributed Internet search infrastructure in and for Europe.
We are calling for your active participation in the Open Search Symposium 2020 in various formats: with scientific papers, sharing of practical experiences or by introducing concepts and positions during presentations and in the different interactive sessions.“

Die Beiträge des Symposiums 2019 stehen auf Zenodo zur Verfügung:
Jens Gäbeler: Entwicklung einer Steuerungskomponente zur Priorisierung von Aufträgen für verteilte Webcrawls
Anna Gröhn: Explizite und implizite Theorien von Schülerinnen und Schülern über die algorithmischen Sortierprozesse von Informationsintermediären
Stephan Hachinger; Jan Martinovic; Olivier Terzo; Cédric Koch-Hofer; Martin Golasowski; Mohamad Hayek; Marc Levrier; Alberto Scionti; Donato Magarielli; Thierry Goubier; Antonio Parodi; Sean Murphy; Florin-Ionut Apopei; Carmine D’Amico; Simone Ciccia; Massimo Sardo; Danijel Schorlemmer: The LEXIS approach to Searching and Managing FAIR Research Data in Converged HPC-Cloud-Big Data Architectures
Hans Hehl: Das Multisuchsystem E-Connect – Suchsystem für elektronische Zeitschriften und Literaturverwaltung
Phil Höfer: Websuche als Zero-Knowledge-Dienst
Pablo Panero; Ismael Posada Trobo; Carina Rafaela de Oliveira Antunes; Andreas Wagner; Citadel Search: Open Source Enterprise Search

Techno-Religion: Der Geist des digitalen Kapitalismus

Veröffentlicht am

Der Soziologe Oliver Nachtwey hat in einem Vortrag, Interview und Working Paper den religiösen Geist des digitalen Kapitalismus analysiert.

re:publica 2019 – Oliver Nachtwey: Der Geist des digitalen Kapitalismus. Solution und Techno-Religion
Interview auf dctpTV Der religiöse Kapitalismus der Internet-Giganten
Working Paper Die Ethik der Solution und der Geist des digitalen Kapitalismus

„Im digitalen Zeitalter erleben wir die Entstehung eines neuen polytheistischen Geistes des Kapitalismus, der vor allen Dingen aus dem Silicon Valley kommt. Der digitale Geist beruht auf einer Ethik der Solution, die vorgibt, die Welt zu verbessern, und als Nebenfolge eine metrische Lebensführung vorbringt. Technologien wie künstliche Intelligenz sind in diesem Geist nicht nur Hilfsmittel, sondern sakrale Subjekte, die auf magische Art und Weise gesellschaftliches Handeln bestimmen. Sie werden zu Göttern in der digitalen Welt. Der Mensch selbst soll so ein promethischer Gott werden. Es entsteht insgesamt eine Technoreligion.“

Solutionismus wird dabei nach Evgeny Morozov so definiert: „Das Bestreben, alle komplexen sozialen Zusammenhänge so umzudeuten, dass sie entweder als genau umrissene Probleme mit ganz bestimmten, berechenbaren Lösungen oder als transparente, selbstevidente Prozesse erscheinen, die sich … leicht optimieren lassen.“ Für normative Trade-Offs z.B. zwischen Freiheit und Sicherheit, demokratische Kompromisse und letztlich die parlamentarische Demokratie bleibt dabei kein Platz. Da die digitale Technik die Lösungen bietet, erscheint der Staat in libertärer Sichtweise nur als überflüssig, der im Wege steht und nur partikulare Interessen verteidigt.

„Es handelt sich bei dem neuen digitalen Geist nicht um eine monotheistische, sondern um eine postmoderne Religion, die Versatzstücke verschiedener Weltreligionen und religiöser Praktiken miteinander verkoppelt und dabei auf eine kohärente Metaphysik verzichtet Sie kombiniert transhumanistische Heilslehren und Lösungsphantasien mit einem magischen Technikverständnis, an deren Ende neue Götter stehen.“

Der Transhumanismus hat dabei zwei Aspekte:

  1. Die künstliche Intelligenz soll über die komplexen Fähigkeiten menschlicher Kognition nicht nur hinausreichen, sondern auch von ihr nicht mehr nachvollziehbar sein. Die Vorstellung des absoluten Wissens, die Eliminierung von Kontingenz und vor allem des Nichtwissens ist im Grunde eine göttliche Vorstellung. „Dem Menschen unergründlich, wird sie selbst eine Gottheit.“
  2. In einem eschatologischen Glauben an die technologische Potentialität soll die menschliche Subjektivität in den Informationsraum hochgeladen werden. Dies beginnt schon bei der metrischen Kontrolle, die nicht nur Einkaufsgewohnheiten, sondern auch die Frequenz unserer Prokrastination und Süchte als Sünde – Abweichung von der rationalen Selbstoptimierung der liberalen Mittel- und Oberschicht – festhält.

Die Vorstellung der Transhumanität schafft nur für einige wenige der globalen Klasse aus Kreativen und Superreichen einen freien Raum. „Für alle anderen entsteht eine neue Gefahr digitaler Herrschaft, eine neues, wie es Max Weber ursprünglich genannt hatte, stahlhartes Gehäuse. Nur dass diesmal das stahlharte Gehäuse aus Algorithmen und unseren zuvor freiwillig hergegebenen Daten besteht.“

„Wir müssen die Debatte über Technologie, das Internet und soziale Medien vor allen Dingen als eine Debatte über die Zukunft der Demokratie und die Zukunft der Gesellschaft und ihren sozialen Implikationen führen.“

Dabei ist die Analyse der transhumanistischen Religion keine abgehobene Ideologiekritik, sondern hat unmittelbar praktische Folgen für diesen Diskurs. Wird sie erkannt, können wir sie ganz anders hinterfragen. Die Gesellschaft als Entscheidungsträger kann verschiedene Optionen abwägen und sich nicht einem im Fortschrittsglauben verankerten geschichtsdeterministischen Verständnis hingeben, wonach die Technik uns zwangsläufig an Orte treibt, wo in Wirklichkeit andere Triebkräfte gestalten.

Der Einfluss von Social Bots auf Wahlen: The Failure of Social Bots Research

Veröffentlicht am

Michael Kreil, data  scientist, data  Journalist und open  data  activist, hat untersucht, ob tatsächlich Social Bots Wahlen von Donald Trump und den Brexit beeinflusst haben. Vortrag und Materialien hierzu hat er auf Github zur Verfügung gestellt: The Army that Never Existed: The Failure of Social Bots Research .video, slides, graphics, code, data and links by Michael Kreil. (November 2019) Hierzu untersucht er die Untersuchungen dreier Forschungsgruppen, auf die diese These zurückgehen: Comprop/Oxford: »Computational Propaganda Research Project« of Oxford University, Southern California/Indiana: Work of Emilio Ferrara (University of Southern California) and Alessandro Flammini (Indiana University), Berkeley/Swansea: Work of Oleksandr Talavera and Tho Pham (Swansea University) and Yuriy Gorodnichenko (University of California at Berkeley).

Er kommt zu dem Ergebnis, dass alle drei schwere wissenschaftliche Mängel aufweisen. Insbesondere werden Spam und normale Tweets falsch als politische Social Bots eingeordnet:
„Social Bot research is scientifically inaccurate on all levels.
In the last years the claim that “Social bots influenced elections” has spread widely. This theory can be fully explained by serious scientific mistakes made by researchers.
All the papers about social bots have to be reviewed again and have to be revoked if necessary.
This includes all other research from all other groups that have based their research on these flawed methods.
Do social bots exist? Probably. However, there is no evidence that they exist in large numbers, have influenced elections in any way or caused any other sort of problems.“

Er fordert statt der Schuldzuweisung an Social Bots eine politische Analyse: „Other reasons must be considered as potential causes for the election of Donald Trump, Brexit, the rise of the AfD in Germany and other similar issues: Outdated electoral systems, gerrymandering, the crisis of media, an easier rise of social movements through social media, right-wing narratives, and especially racism as a mass phenomenon are among the contemporary dynamics that should be studied as possible explanations for the main political events of the last years.“

Warum wir auf den Begriff „fake news“ verzichten sollten

Veröffentlicht am

Christian Wendelborn: Warum wir auf den Begriff „fake news“ verzichten sollten, Blogbeitrag Philosophie aktuell , philosophie.ch Swiss Portal for Philosophy 19.11.2018 fordert, dass die mit dem Begriff „fake News“ benannten Phänomene, insbesondere politisch motivierte Desinformation politischer Medien, nach wie vor analysiert werden müssen. Den Begriff selbst hält er aus drei Gründen für ungeeignet:

1. „Fake News“ hat keinen festen und kontextunabhängigen Gehalt

Viele Autoren „scheinen die Annahme zu teilen, dass die Wendung „fake news“ eine allgemeine Bedeutung, also einen festen und kontextunabhängigen semantischen Gehalt hat, die die Philosophin mit den Mitteln der Begriffsanalyse nur herausarbeiten müsste. Diese Annahme ist aber, wie ich denke, fragwürdig. Denn „fake news“ wird von verschiedenen Sprechern in unterschiedlichen Kontexten auf ganz unterschiedliche Gegenstände angewendet.“ Die Analyse des Begriffs ist somit nicht wertfrei, sondern geht von der Voraussetzung des Verständnisses in bestimmten Teilen der Gesellschaft aus. Der Begriff könnte daher allenfalls kontextuell analysiert werden.

2. „Fake news“ ist ein politischer Kampfbegriff

Erstens wird „fake news“ in der politischen Auseinandersetzung gerne genutzt, um andere Meinungen und Personen zu diskreditieren und zu attackieren und komplexe Zusammenhänge (unangemessen) verkürzt darzustellen. Die Argumente und Positionen der jeweils anderen Seite werden mit Verweis auf fake news schnell zum Ausdruck der Irrationalität, Verführbarkeit oder ideologischen Verbohrtheit des Gegners. Man nutzt „Fake news“ zunehmend als politischen Kampfbegriff und damit mehr als rhetorisches Mittel und weniger als Werkzeug zur Aufklärung und Verständigung.“ Zweitens charakterisieren Machthaber damit ihnen ungelegene journalistische Beiträge. Von diesem politischen Ballast kann der Begriff kaum befreit werden.

3. „Fake news“ ist ein epistemisches Schimpfwort

„Der Begriff hat nicht nur deskriptiven Gehalt, d.h. er beschreibt nicht einfach nur einen Sachverhalt. Er hat auch einen evaluativen und einen expressiven Gehalt. Der evaluative Gehalt besteht darin, dass mit dem Begriff immer auch eine Wertung abgegeben wird.“ Der evaluative Gehalt enthält negative nicht-kognitive Einstellungen, die zu einer Abwertung und Herabsetzung des Anderen und eigener epistemischer Arroganz führen.

Schließlich werden mit dem Begriff unterschiedliche Phänomene benannt, die differenzierte Beschreibungen und Bezeichnungen erfordern: „Das eine Phänomen besteht in der Verbreitung von falschen oder irreführenden Berichten mit der Absicht, die eigene politische Agenda zu verfolgen. Hier wird ganz bewusst mit einem bestimmten politischen Ziel Meinungsbildung durch Desinformation betrieben. Das andere Phänomen stellt dagegen die Herstellung und Verbreitung von falschen oder irreführenden Meldungen mit dem Ziel der finanziellen Bereicherung dar.“ (Clickbaiting, Bewertungsmanipulation usw.)

Image und Selbstbild im Datenstrom. Straflust und Strafangst im digitalen Gefängnis

Veröffentlicht am

„Wenn jemand bei Facebook „postet“, dann löst er etwas von sich ab, und unterstellt es der Begutachtung und Bewertung all jener, denen der Einblick gewährt ist.“ Manuel Güntert: Unser digitales Image, in: Hohe Luft 08.01.2020 analysiert die Dichotomie zwischen dem öffentlichen Teil der Selbstdarstellung im Datenstrom, dem digitalen Image, und dem verbliebenen Rest, von deren Teilhabe die digitale Welt ausgeschlossen ist. Selbst dieser Rest ist aber schon durch diese Unterscheidung bestimmt, deren Regeln der Datenfluss setzt und die als digitales Image verinnerlicht werden und zur Selbstkontrolle zum Einsatz kommen.
„So machen anerkannte Eigenschaften und ihre Beziehung zum Image aus jedem Menschen seinen eigenen Gefängniswärter; es ist dies ist ein fundamentaler sozialer Zwang, auch dann, wenn ein Mensch seine Zelle gerne mag. Der digitale Fluss steht so für die unumgängliche körperlose Verkörperung der je eigenen Unterwerfung unter die je Anderen. Dabei ist jeder Einzelne immer sowohl Beobachter wie auch Beobachteter und dadurch immer sowohl Unterwerfer wie auch Unterworfener.“
Dieses digitale Gefängnis übt den Häftling in ein „Modell des Gehorsams“ ein, wenngleich die freie Ausgestaltung der Zelle die Fiktion von Individualität enthält. Der Datenfluss, dem „verinnerlichte Beobachtung zwingend vorgängig ist“, wirkt so massiv auf den Einzelnen ein, prägt den „digitalisierten Beobachter in ihm“
„Insofern die innere Beobachtung einem den Raum zwar zu Teilen gibt, ihn insgesamt aber eher nimmt, wird über das so generierte digitale Image Transparenz hergestellt: Indem es unser Inneres ausleuchtet, gleicht unser je „individuelles“ digitales Image uns Menschen einander an.“
Die vollständige Herstellung der Homogenität, die Individualität aufgesogen hat, im Datenstrom wird nur dadurch verhindert, dass der Datenstrom seine Fließrichtung ändern kann. „Wiewohl er eine Marginalie ist, kann jeder einzelne Teilhaber diese potentiell umlenken, und sei es nur durch ein einzelnes, immenses Aufsehen erregendes Posting. So beinhaltet der Kampf um Aufmerksamkeit, der dem Posten notwendig innewohnt, immer auch ein Tauziehen, in welche Richtung der Fluss zu fließen hat. Wer sich imstande zeigt, dessen Fließrichtung zu bestimmen, der wirkt auf etwas ein, an dem die je Einzelnen schlechterdings nicht vorbeikommen, wenn sie ihr eigenes digitales Image ausgestalten.“
Allerdings beinhaltet die Abweichung immer das Risiko und die verinnerlichte Angst, Imageeinbußen durch ein Shitstorm zu erleiden. Der digitale Fluss, der „von Straflust und Strafangst durchströmt ist“ wird so im wesentlichen in seiner Fließrichtung gehalten.

Fake News. Zur Psychodynamik des Unsinns

Veröffentlicht am

In einem psychologischen Experiment haben ein Psychologe und eine Wirtschaftswissenschaftlerin untersucht, welche Folgen das wiederholte Lesen von Falschinformation hat. Sie kommen zu dem Ergebnis, dass durch die Wiederholung ein Gewöhnungseffekt eintritt. Die bekannte Information wird leichter verarbeitet, sie erscheint glaubwürdiger und ihre Weiterverbreitung weniger unmoralisch. „People were also more likely to actually share repeated headlines than to share new headlines in an experimental setting. We speculate that repeating blatant misinformation may reduce the moral condemnation it receives by making it feel intuitively true, and we discuss other potential mechanisms that might explain this effect.“

Christiane Gelitz: Wann wir hemmungslos Unsinn verbreiten. Auch wenn wir eine Falschmeldung als solche erkennen: Je öfter wir ihr begegnen, desto eher tragen wir sie selbst weiter, in: Spectrum.de 02.12.2019

Daniel A. Effron; Medha Raj: Misinformation and Morality: Encountering Fake-News Headlines Makes Them Seem Less Unethical to Publish and Share

Alternative Suchmaschinen, ein Überblick von Digitalcourage

Veröffentlicht am

Digitalcourage e.V., ein Verein, der sich für Grundrechte und Datenschutz einsetzt, stellt auf ihrer Webseite Suchmaschinen vor, die eine Alternative zu Google sein können: „Es geht auch ohne Google – Alternative Suchmaschinen“. Bewertet werden MetaGer , DuckDuckGo , eTools.ch, Qwant , Searx , Startpage , YaCy. Beschrieben werden Datenschutz, die Personalisierung von Daten, aber auch, wie die Indizes aufgebaut sind und wie die Suchergebnisse ausfallen. Empfohlen wird die Suchmaschine Metager, die mit einer Suche in  Startpage durch ein einfaches Kommando kombiniert werden kann.

Page 1 of 3
1 2 3