Covid-19: KI produziert Datenmüll

Veröffentlicht am

Die Ergebnisse von Anwendungen Künstlicher Intelligenz (KI) sind schwierig zu evaluieren. Es scheint, dass einige Unternehmen, wie das von dem CDU Politiker Philipp Amthor lobbyierte Augustus Intelligence nur aus geschickter Public Relation besteht. Es soll, so das Handelsblattkein Produkt, keine Kunden und keine Umsätze“ haben.

Das Allen Institute for Artificial Intelligence (AI2), das vom verstorbenen Microsoft-Mitbegründer Paul Allen gegründet wurde und KI-Systeme mit Argumentations-, Lern und Lesefähigkeiten konstruiert, präsentiert SCIFACT, das Fachliteratur zu Covid-19 automatisch klassifizieren soll. Eine Anwendung, die für das Information Retrieval von größtem Interesse sein könnte.

About our model: Our system is designed as a research tool to help scientists identify relevant findings in the research literature. It is NOT designed to detect misinformation or disinformation in the news or social media…. Our system can assess whether a scientific paper provides evidence supporting or refuting a scientific claim.“ In dem Preprint “Fact or Fiction: Verifying Scientific Claims” auf arxiv.org wird das Verfahren erläutert.

Analysieren wir die einzelnen Komponente von SCIFACT:

Datenbasis
– Wikipedia
Es wird nicht dargestellt, welche Daten aus Wikipedia übernommen werden. Aufgrund der sozialen Konstruktion von Wikipedia und der unterschiedlichen Qualität der Artikel ist eine kritische Prüfung auf Plausibilität, Vollständigkeit und Objektivität an externen Quellen immer erforderlich. Der Verweis auf FEVER (a large-scale dataset for Fact Extraction and VERification), das Wikipedia-immanent Sätze abprüft, reicht nicht aus.
– Abstracts von S2ORC-Artikeln
Eine Auswahl von Open Source Artikeln in S2ORC  (The Semantic Scholar Open Research Corpus) , die aus zuverlässigen Quellen stammen und mindestens 10 Zitierungen aufweisen.
Mit Hilfe studentischer Hilfskräfte werden aus diesen Artikeln Behauptungen (Claims) extrahiert und nach SUPPORTS, REFUTES, NOINFO einer Behauptung klassifiziert.
Abgesehen von der fachlichen Kompetenz der studentischen Hilfskräfte werden statisch die Aussagen der Wissenschaftsparadigmen eines bestimmten Zeitpunkts festgehalten. Nicht zuletzt der Wissenszuwachs zu Covid-19 verdeutlicht die Problematik des Vorgehens. Zusätzlich erfolgt eine Komplexitätsreduktion wissenschaftlicher Analyse und Diskurs durch Klassifikation auf 3 Elemente: Zustimmung, Ablehnung, Neutral.

Verfahren
Anschließend prüft ein neuronales Netzwerk die Claims gegen Abstracts, also nicht den Volltext, der Fachliteratur. Während in der dokumentarischen Arbeit der Fachdatenbank das Abstract mit DIN und ISO-Normen eine kurze, genaue und neutrale Wiedergabe des Inhalts gewährleistet, steht im wissenschaftlichen Abstract die Funktionserfüllung im Zentrum: der intendierte Adressat soll entscheiden, ob er den Originaltext lesen sollte, muss also eine kommunikative Funktion innerhalb der wissenschaftlichen Zielgruppe erfüllen.

Ergebnis

Bewertung
Bei dieser Art von Fact Checking handelt es sich um ein komplexes semantisches Problem. Ausgehend von einer fragwürdigen Datenbasis und normativen Festlegungen soll mit pattern matching zweier Textsorten eine inhaltliche Relevanz erzielt werden. Was soll z.B. eine derartige 58%ige Übereinstimmung für wissenschaftliche Relevanz bedeuten?

„Insofern kann die Arbeit als erster Beleg für die Machbarkeit eines KI-basierten Systems für Fakten-Checks gelten“, jubeln die IT-Nerds von Heise. Dies lässt das Schlimmste für zukünftige Evaluationen von KI-Anwendungen befürchten. Denn was hier produziert wird, ist Datenmüll.

Weitere Links zu SCIFACT:
https://www.heise.de/news/KI-Werkzeug-soll-Fachliteratur-zu-Covid-19-automatisch-einschaetzen-4772788.html
https://www.technologyreview.com/2020/05/29/1002349/ai-coronavirus-scientific-fact-checking/
https://theusbreakingnews.com/allen-institutes-verisci-uses-ai-to-fact-check-scientific-claims/
https://venturebeat.com/2020/05/04/allen-institutes-verisci-uses-ai-to-fact-check-scientific-claims/

CORD-19: The Covid-19 Open Research Database

Veröffentlicht am

Neben den Information der Deutschen Zentralbibliothek für Medizin (ZB MED) – Informationszentrum Lebenswissenschaften hat in den USA Semantic Scholar, „a team of researchers and engineers at the Allen Institute for AI building a smarter way to search and discover scientific knowledge, powered by state-of-the-art AI technology, completely free to use by scholars everywhere“ eine umfassende Datenbasis zu COVID-19 aufgebaut: CORD-19. Sie enthält zur Zeit ca. 59.000 Dokumente (Metadaten und Volltexte). Metadaten, Paper und Preprints aus verschiedenen Quellen werden geladen. Metadaten werden harmonisiert und Dubletten entfernt. Aus den Dokumenten wird der Volltext extrahiert und suchbar gemacht. Das Verfahren wird in einem Paper beschrieben CORD-19: The Covid-19 Open Research Database. Neben den Dokumenten selbst werden verschiedene Suchoptionen und Instrumente zur Visualisierung von Forschungszusammenhängen und Begriffen angeboten.

Corona App: Scheitern und Schuld

Veröffentlicht am

Eine Corona App soll den Zeitraum zwischen dem Auftreten erster Krankheitssymptome bei einer Person und dem Tracking ihrer Kontakte, die sie angesteckt haben könnte, durch die Amtsärzte verkürzen. Die institutionelle Disziplinierung und Regulierung der Körper reicht hier nicht aus. Foucault hat beschrieben, wie die Disziplinarmacht nicht nur von außen durch Institutionen, sondern auch von innen als Selbstdisziplinierung wirkt.

Ein geeignetes Handy liegt vor, die App ist von der betroffenen Person installiert und immer eingeschaltet. Ziel ist es, festzustellen, ob ein Abstand zwischen Menschen, der eine existentielle Schutzfunktion hat, durchbrochen wurde. Eine andere Person hat diese Schutzzone verletzt und ihre Viren dringen in den eigenen Körper ein.

Nachdem sie von ihrer Infektion durch Test erfahren hat, soll sich die betroffene Person als Opfer outen – und gleichzeitig Täter sein, der seine Kontakte identifiziert und im positiven Handeln negative Folgen hervorruft: Die meisten Kontakte sind Familie, Freunde, Bekannte und Kollegen, die sich nach ihrer Identifizierung in Quarantäne begeben sollen und soziale, berufliche und finanzielle Nachteile erleiden.

Sie befindet sich in einer Double-Bind-Situation, in der widersprüchliche Zielsetzungen verfolgt werden. (mehr …)

Informationen und Quellen zu COVID-19

Veröffentlicht am

Die Deutsche Zentralbibliothek für Medizin (ZB MED) – Informationszentrum Lebenswissenschaften baut sukzessive spezielle Services zur Forschungsunterstützung zu COVID-19 auf.

  • Ein Auszug aus LIVIVO, dem „search portal for medicine, health, nutrition, and environmental and agricultural Sciences“ mit 58 Millionen Nachweisen. In LIVIVO COVID-19 Collectionyou will find about 50,000 entries about COVID-19 / SARS-CoV-2 from various scientific sources as well as current relevant preprints from bioRxiv and medRxiv. Furthermore it covers articles included in the COVID-19 Open Research Dataset (CORD-19) and other sources.
  •  Frei verfügbare wissenschaftliche Veröffentlichungen sowie weitere zuverlässige Internetquellen rund um das Coronavirus SARS-CoV-2 und die Erkrankung COVID-19 werden systematisiert zusammengestellt.
    nach Typen (databases, data Collections, general Information, journal articles / E-Books, Preprints, search Portal, training material)
    nach Themen
    — O
    verview / multiple disciplines
    — Medicine / Life Sciences (animal and wildlife related, chemistry / pharmacology, clinical Trials, dermatology, intensive care, microbiology, natural Sciences, nephrology and dialysis, oncology, patient and clinical Information, pediatrics, psychology / psychiatry, pulmonology, radiology)
    — Public Health (epidemiology, evidence-based Medicine,  public Health)
    —- Social life (legal Acts, social Impact)
  • Der ZB MED-Blog  weist auf aktuelle „Informationen in Zeiten von Corona“ hin
  • Speziell für die Forschung werden Werkzeuge und Datensätze sowie Hilfestellungen zur Publikation von Forschungsdaten angeboten 

Das Wiki LexCoronasoll eine Übersicht über die in Deutschland im Zusammenhang mit der sogenannten Corona-Krise erlassenen Rechtsakte (Gesetze, Rechtsverordnungen, Allgemeinverfügungen etc.) und Gerichtsentscheidungen bieten„.

Coronavirus: die Hölle der Normalverteilung

Veröffentlicht am

Das Forschungsteam der Universität Basel hat ein Covid19 Modellszenario entwickelt. Es zeigt je nach Land und einstellbaren Parametern die exponentielle Entwicklung des Virus und die Abflachung der Kurve, wenn Sättigungsbereiche erreicht oder aber die exponentielle Verbreitung unterbrochen werden. Sieht man dieses Modellszenario, kann nur eine einzige Handlungsmöglichkeit übrigbleiben: die radikale Unterbrechung der Infektionskette, d.h. der exponentiellen Verbreitung des Virus.

In deutschen und internationalen Medien wird jedoch stattdessen mit einem Modell einer Karikatur einer Gausschen Normalverteilungskurve gearbeitet. Karikatur deswegen, weil auf beiden Achsen die Skalierung fehlt.

Siouxsie Wiles and Toby Morris / CC BY-SA https://creativecommons.org/licenses/by-sa/4.0)

Joscha Bach Don’t “Flatten the Curve,” squash it! , https://medium.com/@joschabach/flattening-the-curve-is-a-deadly-delusion-eea324fe9727 , deutsche Übersetzung hier , hat dies analysiert und kommt zu dem Schluss:

Was alle diese Diagramme gemeinsam haben:
– Sie haben keine Zahlen an den Achsen. Es wird nicht deutlich, welche Anzahl von Fällen notwendig ist, um das Gesundheitssystem zu überlasten und über wie viele Tage sich die Epidemie erstrecken wird.
– Sie suggerieren, dass das Gesundheitssystem zum jetzigen Zeitpunkt mit einem großen Anteil der Fälle (z.B. 2/3, 1/2 oder 1/3) fertigwerden kann, und dass, wenn wir Abschwächungsmaßnahmen umsetzen, wir die Infektionen pro Tag auf ein Niveau reduzieren können, mit dem wir generell fertigwerden.
– Sie sollen uns letztendlich sagen, dass wir um so strenge Abriegelungen herumkommen, wie wir sie aktuell in China oder Italien beobachten können. Stattdessen lassen wir die Infektion sich durch die komplette Bevölkerung (langsam) ausbreiten, bis Herdenimmunität (bei 40% bis 70%) erreicht wird, indem die Infektionen auf eine längere Zeitspanne verteilt werden.

Bach trägt auf beiden Achsen Skalierungen entsprechend empirischer Daten auf und kommt zu katastrophalen Ergebnissen, die keine andere Lösung als eine rigide Eindämmung des Virus offenlassen.

Die Frage ist, wieso trotzdem mit diesem Modell der Normalverteilung gearbeitet und an ihm festgehalten wird.
Die Gausssche Normalverteilung ist zunächst ein statistisches Werkzeug, um Massendaten zu analysieren. Problematisch wird es, wenn damit Wirklichkeit modelliert werden soll. Dazu gibt es verschiedene Publikationen wie z.B. „The Myth of the Normal Curve“ . Oder wir lassen einfach das Fazit einer finanzanalytischen Analyse stehen: „Wer sich auf die Normalverteilung verlässt, blendet Risiken systematisch aus und wird irgendwann von der Realität überholt.“

Die Glockenkurve enthält ein mechanistisches Weltbild. „Foucault konstatierte, dass vom Menschen im wissenschaftlichen Sinne erst seit dem späten 18. Jh. gesprochen wird. Ein halbes Jahrhundert später taucht der mittlere Mensch auf. Es scheint, als sei der mittlere Mensch eine Orientierungsgröße, die das Individuum in der Moderne, als vielfach bedrängtes Individuum, entlasten soll. Der Durchschnittsmensch steht – so die These – für ein Verhältnis von Individualisierung und Disziplinierung“, schreiben Andreas Bischof, Mario Schulze, Hanna Steffen in ihrem Beitrag „Die Flucht ins Normale“. Nur scheinbar ist der „mittlere Mensch“ in der Individualisierung aufgelöst. In der Krise steht der Zusammenhalt in Frage und muss neu konstruiert werden. „Die Integration der Gesellschaft läuft über die Idealisierung des Durchschnitts, der Mitte. Die Gesellschaft wird nach Zentrum und Peripherie unterteilt, nachdem sie im Zuge der Individualisierung/Atomisierung ihr Zentrum verloren hat. Der Zusammenhalt steht in Frage; und gerade deswegen muss ein gesellschaftliches Zentrum mit zunehmender Vehemenz konstruiert werden. Diese Gesellschaft findet ihr Bild in der Glockenkurve.“

Dass diese mentale Disziplinierungstechnik weitgehende Akzeptanz findet, erstaunt. Das ursprüngliche Konzept, die Durchseuchung der Gesellschaft hinzunehmen, um eine Herdenimmunität herzustellen, beinhaltet schließlich Krankheit unterschiedlicher Schwere für 60 – 80 % der Gesellschaft und die Hinnahme von Toten im fünf- bis sechsstelligen Bereich. Die sonst leicht entflammbare Empörungskultur ist verstummt. Auch wenn man inzwischen von diesem offenen Konzept abrückt, zeigen Maßnahmen, die die exponentielle Verbreitung des Virus nicht in ausreichendem Maße verhindern, ähnliche Folgen. Glücklicherweise muss quasi naturgesetzlich hierfür verantwortlich nur einer sein: die Glockenkurve. (z.B. R. Schlickeiser, F. Schlickeiser: A Gaussian model for the time development of the Sars-Cov-2 corona pandemic disease. Predictions for Germany made on March 30, 2020)

Coronavirus mit verteilten Computern entschlüsseln

Veröffentlicht am

Folding@home ist ein Projekt der Stanford University in den USA zur Krankheitsforschung, das das die Proteinfaltung, die rechnergestützte Entwicklung von Medikamenten und andere Arten von Molekulardynamik simuliert. (Hier Beschreibung in Wikipedia.)
Jeder Benutzer eines PCs mit Windows, Mac OS X oder Linux kann ein Programm herunterladen, welches als Dienst im Hintergrund bestimmte Teilaufgaben abarbeitet und diese an den Zentralrechner in Stanford übermittelt. In diesem verteilten Computernetzwerk wird die räumliche Faltung von Proteinen simuliert, die ihre Funktion bedingt. Die Entschlüsselung könnte zum Verständnis und zu Therapien für Krebs, neurologische Krankheiten wie Alzheimer und Infektionskrankheiten wie Dengue Fieber, Zika und Ebola Virus und Hepatitis C führen.
Am 10. März hat Folding@home bekanntgegeben, dass es sich nunmehr nach Vortests auch der Entschlüsselung des Coronavirus (COVID-19) widmet.

„Folding@home team has released an initial wave of projects simulating potentially druggable protein targets from SARS-CoV-2 (the virus that causes COVID-19) and the related SARS-CoV virus (for which more structural data is available) into full production on Folding@home…
This initial wave of projects focuses on better understanding how these coronaviruses interact with the human ACE2 receptor required for viral entry into human host cells, and how researchers might be able to interfere with them through the design of new therapeutic antibodies or small molecules that might disrupt their interaction.“

Das Projekt wird ausführlich auf Github beschrieben, der aktuelle Stand ist außerdem auf dem Blog und dem Twitter-Account von Folding@home nachzuvollziehen.

Ich brauche wohl nicht extra zu betonen, wie wichtig es ist, dass sich möglichst viele an diesem Projekt beteiligen.

North Data: Transparenz im Firmengeflecht

Veröffentlicht am

North Data analysiert Handelsregisterbekanntmachungen und andere Pflichtveröffentlichungen deutscher Firmen, um Wirtschaftsinformationen zu gewinnen, insbesondere zu finanziellen Kennzahlen und zu Zusammenhängen zwischen Firmen untereinander sowie zu Personen. Dazu werden Methoden der Big-Data-Verarbeitung und der Künstlichen Intelligenz (KI) verwendet.“ Neben der Premium-Suche, die noch weitere geografische Eingrenzung und Filterung nach mehreren Parametern zulässt, ist kostenlos schon die Suche nach Gewinn- und Umsatzzahlen deutscher Firmen möglich. Dargestellt werden die Historie, das Netzwerk von Personenfunktionen (Vorstand, Prokura, Geschäftsführer usw.), Jahresabschluss/ Konzernabschluss und die Publikationsdaten.
Zu dem Hintergrund hat Digitalkaufmann in einem Blog-Beitrag „Bundesanzeiger 2.0 oder Stalking für Firmen“ ein Interview mit dem Gründer Frank Felix Debatim geführt.

Symposium Open Search

Veröffentlicht am

Die Open Search Fundation lädt ein zum Second International Symposium on Open Search Technology :

„Dear Experts, Supporters and Friends of Open Internet Search,
We are pleased to announce the 2nd international Open Search Symposium (OSSYM) to be held at CERN, Geneva, May 25-27, 2020.
Building on the networks and cooperation initiated among research groups and experts in the context of Open Search in the past years, we will reconvene for the Open Search Symposium 2020, at the cradle of the web, at CERN Geneva in this coming May. The OSSYM 2020 will provide space for networking within research communities but also connect across domains and disciplines for establishing future cooperation, partnerships and projects .
The development of an European open Internet search community and infrastructure requires know-how and contributions from many scientific and technical fields. It requires profound understanding of internet search technologies and new thinking for services and innovative applications, to be built on an open and distributed Internet search infrastructure in and for Europe.
We are calling for your active participation in the Open Search Symposium 2020 in various formats: with scientific papers, sharing of practical experiences or by introducing concepts and positions during presentations and in the different interactive sessions.“

Die Beiträge des Symposiums 2019 stehen auf Zenodo zur Verfügung:
Jens Gäbeler: Entwicklung einer Steuerungskomponente zur Priorisierung von Aufträgen für verteilte Webcrawls
Anna Gröhn: Explizite und implizite Theorien von Schülerinnen und Schülern über die algorithmischen Sortierprozesse von Informationsintermediären
Stephan Hachinger; Jan Martinovic; Olivier Terzo; Cédric Koch-Hofer; Martin Golasowski; Mohamad Hayek; Marc Levrier; Alberto Scionti; Donato Magarielli; Thierry Goubier; Antonio Parodi; Sean Murphy; Florin-Ionut Apopei; Carmine D’Amico; Simone Ciccia; Massimo Sardo; Danijel Schorlemmer: The LEXIS approach to Searching and Managing FAIR Research Data in Converged HPC-Cloud-Big Data Architectures
Hans Hehl: Das Multisuchsystem E-Connect – Suchsystem für elektronische Zeitschriften und Literaturverwaltung
Phil Höfer: Websuche als Zero-Knowledge-Dienst
Pablo Panero; Ismael Posada Trobo; Carina Rafaela de Oliveira Antunes; Andreas Wagner; Citadel Search: Open Source Enterprise Search

Techno-Religion: Der Geist des digitalen Kapitalismus

Veröffentlicht am

Der Soziologe Oliver Nachtwey hat in einem Vortrag, Interview und Working Paper den religiösen Geist des digitalen Kapitalismus analysiert.

re:publica 2019 – Oliver Nachtwey: Der Geist des digitalen Kapitalismus. Solution und Techno-Religion
Interview auf dctpTV Der religiöse Kapitalismus der Internet-Giganten
Working Paper Die Ethik der Solution und der Geist des digitalen Kapitalismus

„Im digitalen Zeitalter erleben wir die Entstehung eines neuen polytheistischen Geistes des Kapitalismus, der vor allen Dingen aus dem Silicon Valley kommt. Der digitale Geist beruht auf einer Ethik der Solution, die vorgibt, die Welt zu verbessern, und als Nebenfolge eine metrische Lebensführung vorbringt. Technologien wie künstliche Intelligenz sind in diesem Geist nicht nur Hilfsmittel, sondern sakrale Subjekte, die auf magische Art und Weise gesellschaftliches Handeln bestimmen. Sie werden zu Göttern in der digitalen Welt. Der Mensch selbst soll so ein promethischer Gott werden. Es entsteht insgesamt eine Technoreligion.“

Solutionismus wird dabei nach Evgeny Morozov so definiert: „Das Bestreben, alle komplexen sozialen Zusammenhänge so umzudeuten, dass sie entweder als genau umrissene Probleme mit ganz bestimmten, berechenbaren Lösungen oder als transparente, selbstevidente Prozesse erscheinen, die sich … leicht optimieren lassen.“ Für normative Trade-Offs z.B. zwischen Freiheit und Sicherheit, demokratische Kompromisse und letztlich die parlamentarische Demokratie bleibt dabei kein Platz. Da die digitale Technik die Lösungen bietet, erscheint der Staat in libertärer Sichtweise nur als überflüssig, der im Wege steht und nur partikulare Interessen verteidigt.

„Es handelt sich bei dem neuen digitalen Geist nicht um eine monotheistische, sondern um eine postmoderne Religion, die Versatzstücke verschiedener Weltreligionen und religiöser Praktiken miteinander verkoppelt und dabei auf eine kohärente Metaphysik verzichtet Sie kombiniert transhumanistische Heilslehren und Lösungsphantasien mit einem magischen Technikverständnis, an deren Ende neue Götter stehen.“

Der Transhumanismus hat dabei zwei Aspekte:

  1. Die künstliche Intelligenz soll über die komplexen Fähigkeiten menschlicher Kognition nicht nur hinausreichen, sondern auch von ihr nicht mehr nachvollziehbar sein. Die Vorstellung des absoluten Wissens, die Eliminierung von Kontingenz und vor allem des Nichtwissens ist im Grunde eine göttliche Vorstellung. „Dem Menschen unergründlich, wird sie selbst eine Gottheit.“
  2. In einem eschatologischen Glauben an die technologische Potentialität soll die menschliche Subjektivität in den Informationsraum hochgeladen werden. Dies beginnt schon bei der metrischen Kontrolle, die nicht nur Einkaufsgewohnheiten, sondern auch die Frequenz unserer Prokrastination und Süchte als Sünde – Abweichung von der rationalen Selbstoptimierung der liberalen Mittel- und Oberschicht – festhält.

Die Vorstellung der Transhumanität schafft nur für einige wenige der globalen Klasse aus Kreativen und Superreichen einen freien Raum. „Für alle anderen entsteht eine neue Gefahr digitaler Herrschaft, eine neues, wie es Max Weber ursprünglich genannt hatte, stahlhartes Gehäuse. Nur dass diesmal das stahlharte Gehäuse aus Algorithmen und unseren zuvor freiwillig hergegebenen Daten besteht.“

„Wir müssen die Debatte über Technologie, das Internet und soziale Medien vor allen Dingen als eine Debatte über die Zukunft der Demokratie und die Zukunft der Gesellschaft und ihren sozialen Implikationen führen.“

Dabei ist die Analyse der transhumanistischen Religion keine abgehobene Ideologiekritik, sondern hat unmittelbar praktische Folgen für diesen Diskurs. Wird sie erkannt, können wir sie ganz anders hinterfragen. Die Gesellschaft als Entscheidungsträger kann verschiedene Optionen abwägen und sich nicht einem im Fortschrittsglauben verankerten geschichtsdeterministischen Verständnis hingeben, wonach die Technik uns zwangsläufig an Orte treibt, wo in Wirklichkeit andere Triebkräfte gestalten.

Der Einfluss von Social Bots auf Wahlen: The Failure of Social Bots Research

Veröffentlicht am

Michael Kreil, data  scientist, data  Journalist und open  data  activist, hat untersucht, ob tatsächlich Social Bots Wahlen von Donald Trump und den Brexit beeinflusst haben. Vortrag und Materialien hierzu hat er auf Github zur Verfügung gestellt: The Army that Never Existed: The Failure of Social Bots Research .video, slides, graphics, code, data and links by Michael Kreil. (November 2019) Hierzu untersucht er die Untersuchungen dreier Forschungsgruppen, auf die diese These zurückgehen: Comprop/Oxford: »Computational Propaganda Research Project« of Oxford University, Southern California/Indiana: Work of Emilio Ferrara (University of Southern California) and Alessandro Flammini (Indiana University), Berkeley/Swansea: Work of Oleksandr Talavera and Tho Pham (Swansea University) and Yuriy Gorodnichenko (University of California at Berkeley).

Er kommt zu dem Ergebnis, dass alle drei schwere wissenschaftliche Mängel aufweisen. Insbesondere werden Spam und normale Tweets falsch als politische Social Bots eingeordnet:
„Social Bot research is scientifically inaccurate on all levels.
In the last years the claim that “Social bots influenced elections” has spread widely. This theory can be fully explained by serious scientific mistakes made by researchers.
All the papers about social bots have to be reviewed again and have to be revoked if necessary.
This includes all other research from all other groups that have based their research on these flawed methods.
Do social bots exist? Probably. However, there is no evidence that they exist in large numbers, have influenced elections in any way or caused any other sort of problems.“

Er fordert statt der Schuldzuweisung an Social Bots eine politische Analyse: „Other reasons must be considered as potential causes for the election of Donald Trump, Brexit, the rise of the AfD in Germany and other similar issues: Outdated electoral systems, gerrymandering, the crisis of media, an easier rise of social movements through social media, right-wing narratives, and especially racism as a mass phenomenon are among the contemporary dynamics that should be studied as possible explanations for the main political events of the last years.“

Page 1 of 3
1 2 3