Ältere Webseiten finden

Drei Möglichkeiten, um ältere oder gelöschte Webseiten aufzufinden:
1. Temporäre Zwischenspeicherung im Google-Cache
– In der Trefferliste von Google steht neben jedem Eintrag ein kleines Dreieck. Klickt man darauf, kann man wählen zwischen “Im Cache” und “Ähnliche Seiten”
– Direkte Eingabe einer URL unter: http://webcache.googleusercontent.com/search?q=cache:URL
– Google-Suche unter: cache:Suchbegriff
– Direkte Suche im Google Cache unter https://cachedview.com/

2. Mit der Browser-Erweiterung Web Archives für Firefox oder Chrome kann der Cache von 8 Suchmaschinen (Wayback Machine, Google, Bing, Yandex, Archive.is, Baidu, Yahoo, 360 Search) durchsucht werden

3. In der Waybackmachine des Internet Archive  https://archive.org/web/ können verschiedene Versionen einer Webseite, die zu verschiedenen Zeitpunkten langfristig archiviert worden sind, aufgerufen werden.

Open Photo: Sammlung von Websites mit freien Bildern

Johannes Schirge, Lehrkraft für Sonderpädagogik an der Michaelis-Schule in Gütersloh und Fachleiter am Zentrum für schulpraktische Lehrerausbildung (ZfsL) Bielefeld, hat in seiner Sammlung von Websites mit “freien” Bildern rund 100 Adressen zur Bildersuche zusammengetragen. “Es gibt viele Websites, die kostenlose Bilder anbieten, die grundsätzlich ohne Sorge um Urheberrechte für private, schulische und größtenteils auch kommerzielle Zwecke genutzt werden können. Etwas aufpassen muss man dennoch, denn zahlreiche dieser Websites haben eine eigene Lizenz, unter der die bereitgestellten Medien stehen. Daher müssen die Lizenztexte genau gelesen werden, um die Bestimmungen mit dem geplanten Verwendungszweck abzugleichen.”
Johannes Schirge: Open Photo: Ein Bild sagt mehr als 1000 Worte OER Info 22.01.2022
Sammlung von Websites mit freien Bildern

Fake News und IWT-Memes erkennen

Die Gruppe Data Science von armasuisse Wissenschaft und Technologie (W+T) und die Zürcher Hochschule für Angewandte Wissenschaften (ZHAW) arbeiten an Algorithmen, mit denen Künstliche Intelligenz gegen Desinformation im Netz eingesetzt werden kann. Gérôme Bovet und Sarah Frei: Künstliche Intelligenz im Einsatz gegen Desinformation in sozialen Netzwerken, in: armafolio 02/2021 beschreiben dabei drei Ansätze, die dabei Natural Language Processing (NLP) einsetzen:
1. Mit Nutzerverhalten in den sozialen Medien (Text- und/ oder Bild) werden Modelle mit sprachlichen und sentimentalen Merkmalen trainiert, die Emotionalität von Information einordnen können. “Das ist wichtig, weil die Verbreitung falscher beziehungsweise radikaler Aussagen oft mit einer hohen Emotionalität des Beitrags einhergeht.” Gegenüber normalen Einsätzen von NLP entsteht bei Twitter die Herausforderungen, “mit wie kurzen Texten das Programm arbeiten soll” (Gérôme Bovet: «Fake News» schneller erkennen, Bundesamt für Rüstung armasuisse 26.10.2020).
2. Erkennung und Klassifizierung von Memes: IWT-Memes (englisch: Image with Text-IWT, deutsch: Bild mit Text), die zur Desinformation eingesetzt werden, sollen unter Einsatz von Convolutional Neural Networks identifiziert und binär klassifiziert in die Kategorien IWT-Meme-Bild bzw. Nicht-IWT-Meme-Bild werden. “Bei der Ermittlung des Inhalts werden durch die Bestimmung des Themas und der Emotionalität des Inhalts Rückschlüsse darauf gezogen, ob es sich um Desinformation handeln könnte oder nicht. Desinformation beinhaltet häufig Themen, welche sozial spaltend wirken und, damit verbunden, negative Gefühle beim Betrachter oder der Betrachterin verstärken können.”
3. Analyse des Kontoverhaltens auf Twitter durch gerichtete Graphen. “Anhand eines solchen Graphen kann ein Algorithmus durch Berechnung verschiedener statistischer Parameter bestimmen, wie sich ein Beitrag in sozialen Netzwerken, in diesem Fall Twitter, verbreitet hat. Zu diesen Parametern gehören der Vernetzungsgrad eines Kontos (wie viele Nutzer und Nutzerinnen dem Konto folgen und wie vielen Nutzern und Nutzerinnen das Konto selbst folgt).” Social Bots weisen dabei ein charakteristisches Verhältnis zwischen Wurzelknoten, Retweets und kurzfristig neu geschaffenen Followern auf.

Chaos Computer Club sucht die richtige Information

In der Präambel der Satzung des Chaos Computer Club e. V. heißt es: “Die Entwicklung zur Informationsgesellschaft erfordert ein neues Menschenrecht auf weltweite, ungehinderte Kommunikation.” Auf dem Chaos Communication Congress 2021, Remote Chaos Experience (rC3), stellt sich Mela Eckenfels, “Writer. Nerdy, dorky geekgirl”, unter dem Titel “Informationen bewerten in Zeiten der Pandemie dem “Kampf gegen Windmühlenflügel“: “Informationssuchende Menschen verheddern sich im Gewirr widersprüchlicher Zahlen und verlieren die Übersicht, welche davon Aussagekraft haben oder warum drei Stellen drei unterschiedliche Werte melden. Bei allen herrscht große Verunsicherung, ob der Weg, den wir nun gerade beschreiten, der Richtige ist und was die Zukunft bringt.”
Bis auf die innere Checkliste, in der die Notwendigkeit von Vertrauen als auch kritisches Denken hervorgehoben wird, reduziert Eckenfels Komplexität durch eine naive Skalierung :
Von innen, nach außen! Ungefiltert > gefiltert
1. Direkte Quellen: Robert-Koch-Institut, Regierungssprecher, Gesundheitsämter … (Aber nicht Augenzeugen!)
2. Vereinfachende, filternde und einordnende Quellen: Klassische Nachrichtenmedien: Tageszeitungen, öffentlich-rechtlicher Rundfunk.
3. Vereinfachende und verzerrende Quellen: Unterhaltungsmedien, BILD, Privatsender, Frauenzeitschriften.
4. Unsichere Quellen: Social Media, Influencer. Wild uneinheitliche Qualität.
5. Noch unsicherere Quellen: Buschfunk, ‘der Nachbarin ihr Vetter sein Hund hat da was gehört was nicht jeder wissen soll’.
6. Routinemäßig entstellt: Propagandamedien, Verschwörungstheoretiker, ideologisch motivierte Interessengruppen.”

Während die direkten Quellen in unangetasteter Autorität für sich stehen, ist die Realität der Medien “etwas komplexer“: Keine direkten Lügen und keine Neutralität, sondern Wechselwirkungen von Fakten und ihren Einordnungen, journalistischen “Standards” und “Berufsethos”.

Am schlimmsten sind neu entstehende Informationen, die womöglich noch “spontan” entstehen: bei ihnen bleibt allein die Hoffnung auf “offizielle Stellen“:

“Eine Information, die nur aus einer Quelle stammt, bleibt, bis sie aus anderen Quellen bestätigt wird, unsicher. Idealerweise wartet man damit, sie weiterzuverbreiten, bis sie am Besten von einer oder mehreren offiziellen Stellen bestätigt wurde.”

Einzelne Beiträge sind “unsicher” oder “wild uneinheitlich“. Wie wird wissenschaftlicher Konsens festgestellt? Wir erfahren es nicht, Hauptsache, es wird von ihm nicht abgewichen: Ansichten und Behauptungen, die vom wissenschaftlichen Konsens abweichen, müssen sachlich extrem gut begründet sein.

“Spontan auftauchende Informationen aus unbekannten Quellen sollten erst einmal in Quarantäne.” Sie dürfen erst noch “etwas abhängen”.

Mit den Unzulänglichkeiten der Menschen muss man leben, denn sie haben “keinen Computer als Gehirn“.

Als “Helfeshelfer” auf der Suche nach der richtigen Information soll die Faktenchecker-Industrie einspringen, auf deren Angebote verlinkt wird. Man selbst bildet in Harmonie “Netzwerke des Vertrauens” und bleibt natürlich vor allem eins: “kritisch“.

Von dem Demokratie- und Emanzipationsversprechen des Internet ist hier nichts mehr übriggeblieben, nicht einmal die Hoffnung.