Large Language Models for Information Retrieval

Timo Breuer, Sameh Frihat, Norbert Fuhr, Dirk Lewandowski, Philipp Schaer, Ralf Schenkel: Large Language Models for Information Retrieval: Challenges and Chances. Datenbank-Spektrum 11.09.2025
Abstract:
„The rapid advancement of Large Language Models (LLMs) has introduced a paradigm shift in Information Retrieval (IR), moving beyond conventional keyword queries and ranked result lists. LLMs now play a critical role in the evolution of IR technologies and introduce new interaction forms like Retrieval-Augmented Generation, which is a more dynamic and interactive retrieval process that integrates various aspects of Information Access, like Question Answering, into the dialog between a searcher and the search engine. We explore the multi-faceted impact of LLMs on IR, particularly in three distinct layers where they have become an integral part of the retrieval process, namely the retrieval system and processing pipeline that can make use of a richer semantic representation using advanced language models, the interaction layer, and the broader IR ecosystem. For the latter, we focus on evaluation issues as well as bias, fairness, and ethical concerns. We also highlight some recent cases of using LLMs in the medical domain to demonstrate the impact on one specific domain.“

KI-Chatbots als Suchsysteme, Suchmaschinen als KI-Bots?

Lewandowski, Dirk: KI-Chatbots als Suchsysteme, Suchmaschinen als KI-Bots? Veränderungen, Begriffe und die Rolle des Datenbestands. Veränderungen, Begriffe und die Rolle des Datenbestands. In: M. Eibl (Hrsg.): Datenströme und Kulturoasen — Die Informationswissenschaft als Bindeglied zwischen den Informationswelten. Proceedings des 18. Internationalen Symposiums für Informationswissenschaft (ISI 2025), Chemnitz, Deutschland, 18.—20. März 2025. Glückstadt: Verlag Werner Hülsbusch, S. 150—167
Abstract
„Der Beitrag untersucht die Auswirkungen großer Sprachmodelle (LLMs) und KI-Chatbots wie ChatGPT auf die Informationssuche und auf Suchsysteme. Im Zentrum steht die These, dass die Integration von KI-Chatbots und Suchmaschinen neue, hybride Suchsysteme hervorbringt, die sowohl Informationen vermitteln als auch eigenständig generieren. Dabei werden technologische Entwicklungen, wie die Generierung von Informationsobjekten „on the fly“ und die Einbindung von Retrieval-Augmented Generation (RAG), als zentrale Innovationen beschrieben. Diese Veränderungen werfen Fragen zur Verlässlichkeit und Wahrheit von Informationen auf. Die Rolle des Datenbestands in Suchsystemen wird neu bewertet, da KI-Modelle qualitativ hochwertige Trainingsdaten benötigen, um Verzerrungen und Manipulationen zu vermeiden. Der Beitrag diskutiert, wie eine stärkere Kuratierung der Datenbestände zur Sicherung der Informationsqualität beitragen kann. Darüber hinaus wird argumentiert, dass bestehende Definitionen von Suchsystemen und Informationsobjekten angepasst werden müssen, um die Fähigkeiten von KI-Chatbots adäquat zu erfassen. Die Analyse zeigt, dass diese Entwicklungen Implikationen für die Informationswissenschaft haben, insbesondere für die Vermittlung von Informationskompetenz, die professionelle Informationsrecherche und das Informationsverhalten. Es wird betont, dass Informations- und Bibliothekswissenschaftler*innen durch ihre Expertise in der Bewertung und Vermittlung von Wissen gut auf die Herausforderungen generativer KI vorbereitet sind. Abschließend wird die Notwendigkeit einer breiten Debatte zur Rolle von KI-Systemen in der Informationssuche betont.“

Bewertungen unglaubwürdig?

Markus Böhm, Jörg Breithut, Bernhard Riedmann: Verschwinden kritischer Rezensionen. Darum können Sie Google-Bewertungen nicht mehr trauen. Hunderte Millionen Menschen orientieren sich an den Sternen auf Google Maps. Dcoh das System hat ein massives Glaubwürdigkeitsproblem, weil immer wieder kritische Bewertungen gelöscht werden. Vor allem in Deutschland. Spiegel 25.11.2025 (hinter der Bezahlschranke)
Geschildert wird, wie häufig deutsche Restaurants ihre Google-Bewertungen schönen, indem sie kritische Rezensionen gezielt löschen lassen. Betroffen sind dabei schon zwei- oder drei-Sterne-Bewertungen, sodass nur noch vier- oder fünf-Sterne Bewertungen übrig bleiben. Die Löschung beruft sich dabei auf „Diffamierung“, die auch bei nachgewiesenem Restaurant-Besucht nicht ausgeräumt werden kann. Spezialisierte Löschagenturen und Rechtsanwält beherrschen die Bewertungsszene. Ein Power-User, der häufig Fotos und Bewertungen in Maps einstellt: „Zu seinem Vertrauen in Googles Bewertungssystem sagt er als langjähriger Fan und Poweruser: `Die Sache ist eigentlich durch. Vor allem in Ballungsgebieten haben die Google-Sterne keine Aussagekraft mehr.‘ Maps sei mittlerweise eine Spielwiese für Anwälte.“

Sind Bücher gefährlich?

Die Bibliothek des Konservatismus (Bdk) in Berlin soll zum 31. Dezember 2025 aus dem Gemeinsamen Bibliotheksverbund (GBV) der norddeutschen Bundesländer ausgeschlossen werden.

Morten Freidel: sind Bücher gefährlich? Die Verbannung einer konservativen Bibliothek aus der öffentlichen Wahrnehmung ist ein Armutszeugnis. Staatliche Stellen in Deutschland wollen die Bibliothek des Konservatismus aus einem wichtigen Verbund ausschließen. Das bedroht die freie Wissensgesellschaft. Neue Zürcher Zeitung 21.11.2025 (hinter der Bezahlschranke)
„Wie kann man auf die Idee kommen, als Hoheitsträger Bücher unsichtbar zu machen? Sind Bücher gefährlich? Wo soll das hinführen?…
Nur wer sein Denken herausfordert, regt es an. Nur wer sich geistig hinauswagt, wird Einsichten gewinnen. Schon dass man das überhaupt aussprechen muss, ist ein Armutszeugtnis für eine aufgeklärte Wissensgesellschaft. Wer Gedanken für gefährlich erklärt, der bewegt sich auf den Pfaden der kirchlichen Inquisition. Galileo Galilei sollte widerrufen, weil seine Erkenntnisse die christliche Lehre vom Menschen als Mittelpunkt der Schöpfung infrag stellten. Darum geht es in Wahrheit auch in diesem Streit: Ein herrschendes Dogma soll nicht infrage gestellt werden. Wäre es anders, dann hätten die Gegner dieser Bibliothek und ihres Zirkels die Souveränität, ihnen mit der Überzeugungskraft ihrer Argumente entgegenzutreten.“

Lorenz Jäger: „Kanon der extremen Rechten“? Warum eine Berliner Bibliothek plötzlich zu konservativ sein soll, Welt 25.11.2025 (hinter der Bezahlschranke)

Chatsbots fressen Quellen

Tomas Rudl: KI-Suchmaschinen: Chatbots fressen Klicks und Quellen auf. Die Suche im Netz verschiebt sich zunehmend in Richtung Chatbots. Dabei könnte sich drastisch ändern, wie wir an Informationen gelangen – und wie viel am Ende von der Angebotsvielfalt im Netz übrig bleibt. Eine Studie hat das neue Phänomen nun untersucht. netzpolitik 17.10.2025

Dirk Lewandowski: Gutachten im Auftrag der Medienanstalten. Integration von KI-Anwendungen in Suchmaschinen und ihre Auswirkungen auf die Meinungsvielfalt
Dieses Gutachten untersucht systematisch, wie sich die Integration von KI in Suchmaschinen auf die Meinungsvielfalt auswirkt. Es zeigt: KI-basierte Suchantworten schaffen neue Inhalte, verdrängen etablierte Informationsquellen und verschieben die Verantwortung für publizierte Aussagen zunehmend zu den Plattformbetreibern selbst. Berlin Oktober 2025

KI Schrott

Anna Henschel: Wir versinken in Schrott. Ein Viertel der meistgeklickten TikTok-Suchergebnisse ist künstlich erzeugt. Oft ohne Kennzeichnung, oft täuschend echt. Welche Orientierung bleibt in dieser neuen Realität? Wissenschaftskommunikation.de 23.11.2015
„Was ist ‘AI Slop’? KI-Schrott ist ein „endlose[r] Strom billig produzierter, emotional aufgeladener KI-Inhalte, die digitale Räume fluten“1. Meist entstehen so fehlerhafte Inhalte, Videos und Bilder von geringer Qualität. Alternativ wird KI-Schrott auch als eine ‘invasive Art’, ‘Schmutz’, synthetisches Material wie ‘Polyester’ oder ‘hochverarbeitetes Junkfood’ beschrieben.
Dahinter steckt die Motivation, möglichst viel emotionalisierenden Content möglichst billig zu produzieren, um Viralität zu erreichen. Je mehr Clicks erzielt werden, desto mehr Geld können die Produzent*innen des Slops potenziell über die Creator-Programme von Social Media Plattformen verdienen.“
„Ein weiteres Problem ist, dass Infrastrukturen derart mit Schrott überflutet werden, dass sie nicht mehr funktionieren. Das Moderationsnetzwerk von Wikipedia ächzt unter dem Anstieg qualitativ schlechter Beiträge6. Der Preprint-Server arXiv Computer Science hat den automatischen Upload von Übersichtsartikeln und Positionspapieren vorerst gestoppt. Die freiwilligen Moderator*innen hätten keine Kapazitäten, den „unüberschaubaren Zustrom“ von Artikeln zu bewältigen. Währenddessen sinkt die Informationsqualität von Online-Inhalten immer weiter.“

Jimmy Wales über Vertrauen

Jimmy Wales in SFR Kultur: Sternstunde Philsophie 16.11.2015
„Wer kennt sie nicht: die Online-Enzyklopädie Wikipedia mit ihren über 60 Millionen Beiträgen in über 300 Sprachen. Sie verspricht, neutral und objektiv das Wissen der Menschheit zu sammeln. Nicht alle glauben an das Versprechen. Elon Musk hat mit «Grokipedia» vor Kurzem ein Gegenprojekt lanciert.

Jimmy Wales liebte schon als Kind Enzyklopädien – und er war ein Computernerd. Mit viel Wagemut, Know-how und «pathologischem Optimismus», wie der US-Amerikaner und Wahlbrite von sich sagt, hat er das grösste frei zugängliche Online-Nachschlagewerk der Welt geschaffen, mit dem heute auch viele KI-Modelle trainiert werden.

Für Wales gibt es nichts Grossartigeres, als die Welt zu verstehen und das Wissen zu bewahren und um möglichst viele Perspektiven zu erweitern. Deshalb arbeitet das Unternehmen nicht kommerziell und unabhängig von Werbung. Doch der «Tempel für den Geist» wird immer wieder attackiert – nicht nur von Elon Musk, sondern auch von seinem ehemaligen Mitstreiter Larry Sanger, die Wikipedia eine linksliberal geprägte Voreingenommenheit nachsagen.

Jimmy Wales glaubt dennoch an sein Werk und wirbt in seinem soeben erschienenen Buch «Die 7 Regeln des Vertrauens» für den Glauben an die Kraft der Kooperation.“

Pubservatory

Pubservatory: Neues Tool der ZB MED – Informationszentrum Lebenswissenschaften zur Pflege der PubMed-Datenbank.
„Jede aktuelle Literaturdatenbank erfordert Wartung. Fehler müssen korrigiert, Duplikate entfernt und neue Publikationen hinzugefügt werden. Seit über 150 Jahren pflegt die National Library of Medicine in den USA die PubMed-Datenbank auf diese Weise und gewährleistet so ihre hohe Qualität. Pubservatory macht diese Arbeit sichtbar und transparent.Was ist Pubservatory?
Pubservatory bietet wöchentliche Einblicke in die Änderungen an PubMed, einer der weltweit wichtigsten Datenbanken für biomedizinische Literatur. Unsere Plattform visualisiert sowohl Ergänzungen als auch Löschungen und gibt Forschern, Bibliothekaren und Informationsfachleuten einen klaren Einblick darin, wie sich PubMed im Laufe der Zeit entwickelt.Löschungen verstehen
Die überwiegende Mehrheit der Löschungen in PubMed sind Duplikate. Das bedeutet, dass der Artikel selbst in der Datenbank verbleibt – nur redundante Einträge werden entfernt. Löschungen bedeuten in der Regel nicht, dass ein Artikel dauerhaft aus PubMed entfernt wurde, sondern vielmehr, dass doppelte Datensätze bereinigt wurden, um die Datenbankqualität zu gewährleisten.
*Hinweis: Wir arbeiten an einer neuen Veröffentlichung, die für das Frühjahr 2026 geplant ist und doppelte Löschungen direkt identifizieren und markieren wird, um die Art jeder Änderung besser zu verstehen.
Funktionen
Track-Ergänzungen und -streichungen wöchentlich
Interaktive Grafiken, die Trends in der Datenbankpflege über die Zeit zeigen
Klicken Sie sich durch wöchentliche Zusammenfassungen, um einzelne Artikel zu sehen, die hinzugefügt oder gelöscht wurden
Sehen Sie sich kombinierte Daten oder separate Graphen für Hinzufügungen und Löschungen mit optimierter Skalierung an
Alle Änderungen sind dokumentiert und zur Analyse zugänglich.“

Zensur im Internet?

Wer bestimmt den digitalen Diskurs? Eine Untersuchung zeigt, wie staatlich finanzierte NGOs die Online-Debatte in Deutschland steuern – und warum das die Meinungsfreiheit gefährdet. Liber-Net, eine „digitale Bürgerinitiative„, hat hierüber einen Überlick erstellt.
liber-net: Das Zensurnetzwerk: Regulierung und Repression im heutigen Deutschland 19.11.2025
„In den letzten Jahren haben investigative Berichte eine Reihe koordinierter Bemühungen aufgedeckt, die darauf abzielen, die Meinungsfreiheit im Internet in westlichen Ländern zu unterdrücken. Diese Netzwerke zur Unterdrückung von Informationen, die oft als „Zensur-Industriekomplex” bezeichnet werden (und meist unter dem Deckmantel der „Bekämpfung von Desinformation” oder „Hassrede” operieren), sind insbesondere in den Vereinigten Staaten, im Vereinigten Königreich und in der Europäischen Union weit verbreitet. Innerhalb der EU spielt Deutschland eine überproportional große Rolle in diesem Komplex, mit einer Vielzahl von staatlichen und privaten Knotenpunkten, die sich mit der Überwachung von Online-Äußerungen befassen und sich für eine zunehmende Unterdrückung von Inhalten einsetzen….
In diesem Bericht finden Sie Infografiken, die Aufschluss über die Aktivitäten,
die Zusammensetzung und die Themen dieser Organisationen geben. Die nachstehende Grafik zeigt, wer unserer Meinung nach den Kern des deutschen Netzwerks zur Unterdrückung von Informationen bildet.“

Ende der Gratiskultur im Internet?

Markus Städeli: Mikrozahlungen statt Daten: Neu kann man im Internet Kleinstbeträge ausgeben. Seit Jahrzehnten dominieren im Netz Gratisangebote – die Nutzer bezahlen sie mit ihren Daten statt mit Geld. Nun öffnen Mikrozahlungen den Weg zu völlig neuen Geschäftsmodellen. Neue Zürcher Zeitung 25.11.2025 (hinter der Bezahlschranke)
„Im September haben einflussreiche Techunternehmen die Stiftung x402.org gegründet, um Mikrozahlungen durch einen neuen, offenen Internetstandard zum Durchbruch zu verhelfen. Durch ihn wird das Senden und Empfangen von Zahlungen für Betreiber von Websites, Entwickler sowie Urheber von Inhalten massiv vereinfacht.“ Zahlungen sollen mittels Stablecons erfolgen. Geplant ist, dass KI-Dienste und KI-Agenten Zahlungen bei Zugriff auf Daten leisten. Der Endbenutzer zahlt dann mit seinem KI-Abo.

Buchseite 2 von 44
1 2 3 4 44