KI in Bibliotheken

Carina Pizzini: Einsatzgebiete von Künstlicher Intelligenz in wissenschaftlichen Bibliotheken – Praxis und Perspektiven. Bachelorarbeit 2025
Abstract: „Künstliche Intelligenz ist ein aktuelles Thema und aus vielen Bereichen des Lebens nicht mehr wegzudenken. Da KI mittlerweile neben vielen anderen Disziplinen auch die Wissenschaft und den Hochschulalltag beeinflusst, setzen sich auch wissenschaftliche Bibliotheken zunehmend mit der Thematik auseinander. Um Forschende, Studierende und Lehrende hinsichtlich dieser Entwicklung zu unterstützen, müssen sich Bibliotheken an den Wandel anpassen und Angebote schaffen, um ihnen die nötigen Informationen zum Umgang und Einsatz KI-gestützter Werkzeuge in Forschung und Lehre zu vermitteln. Und auch im bibliothekarischen Alltag bieten KI-Tools das Potential, Prozesse und Dienstleistungen zu optimieren. In dieser Arbeit wird exemplarisch aufgezeigt, inwiefern wissenschaftliche Bibliotheken Künstliche Intelligenz bereits in ihren Arbeitsalltag integriert haben und nutzen, ob sie eigene Forschung zu dem Thema betreiben und welche Angebote sie zur Informationsvermittlung entwickelt haben. Dies geschieht anhand einer Literaturanalyse, in der fünf wissenschaftliche Bibliotheken basierend auf festgelegten Kriterien hinsichtlich ihres Engagements bezüglich KI untersucht werden. Ergänzend werden im Anschluss Chancen und Herausforderungen rund um den Einsatz von KI-Technologien in wissenschaftlichen Bibliotheken herausgearbeitet und die Auswirkungen auf die Rolle von Bibliothekar*innen erläutert. Abschließend werden die Ergebnisse zusammengefasst und ein Ausblick auf die mögliche zukünftige Entwicklung gegeben.“

Retrieval Benchmark

Hongjin Su, Howard Yen, Mengzhou Xia, Weijia Shi, Niklas Muennighoff, Han-yu Wang, Haisu Liu, Quan Shi, Zachary S. Siegel, Michael Tang, Ruoxi Sun, Jinsung Yoon, Sercan O. Arik, Danqi Chen, Tao Yu: BRIGHT: A Realistic and Challenging Benchmark for Reasoning-Intensive Retrieval
Abstract: „Bestehende Retrieval-Benchmarks bestehen in erster Linie aus informationssuchenden Abfragen (z.B. aggregierte Fragen von Suchmaschinen), bei denen ein Keyword- oder semantisch-basiertes Retrieval in der Regel ausreichend ist. Viele komplexe Abfragen in der Praxis erfordern jedoch eine gründliche Argumentation, um relevante Dokumente zu identifizieren, die über den Abgleich von Oberflächenformen hinausgehen. Um beispielsweise eine Dokumentation für eine Codierungsfrage zu finden, müssen Sie die Logik und Syntax der beteiligten Funktionen verstehen. Um das Retrieval bei solch anspruchsvollen Abfragen besser zu vergleichen, führen wir BRIGHT ein, den ersten Text-Retrieval-Benchmark, der intensives Denken erfordert, um relevante Dokumente abzurufen. Unser Datensatz besteht aus 1.384 realen Abfragen aus verschiedenen Bereichen wie Wirtschaft, Psychologie, Mathematik und Programmierung. Diese Abfragen basieren auf natürlich vorkommenden und sorgfältig kuratierten menschlichen Daten. Eine umfangreiche Evaluierung zeigt, dass selbst moderne Retrieval-Modelle auf BRIGHT schlecht abschneiden. Das führende Modell auf der MTEB-Bestenliste (Muennighoff et al., 2023) SFR-Embedding-Mistral (Meng et al., 2024), das eine Punktzahl von 59,0 nDCG@10,1 erreicht, erzeugt eine Punktzahl von nDCG@10 von 18,3 auf BRIGHT. Wir zeigen, dass die Einbeziehung expliziter Argumentation für die Abfrage die Abrufleistung um bis zu 12,2 Punkte verbessert. Darüber hinaus steigert die Einbeziehung von abgerufenen Dokumenten aus dem leistungsstärksten Retriever die Leistung bei der Beantwortung von Fragen. Wir glauben, dass BRIGHT den Weg für zukünftige Forschungen zu Rückholsystemen in realistischeren und anspruchsvolleren Umgebungen ebnet.“

KI Suchmaschine für wissenschaftliche Publikationen

Consensus ist eine KI-Suchmaschine für wissenschaftliche Publikationen
„Consensus is an AI-powered search engine for scientific research papers. Our mission is to make the world’s best knowledge more accessible for all. To create new knowledge, you must first understand what’s already known. But humanity’s hard-won insights are locked inside millions of research papers. Navigating this maze is overwhelming for researchers and purely out of reach for anyone outside academia. We’re building the best way to search, synthesize, and understand scientific knowledge— so researchers can get back to science, not searches, and everyone can access evidence, not opinion. We want to see a world with superhuman researchers, and a generation of citizen scientists. This is the world we’re creating with Consensus.“

Webscraping mit KI

Browse AI automatisiert das Webscraping und das Sammeln von Daten. „Unsere Scraping-API verarbeitet Browser, Proxies, CAPTCHAs und HTML-Parsing auf unserer Seite. Geben Sie uns einfach eine URL und erhalten Sie das HTML, Text oder Daten.“ Die kostenlose Probeversion enthält 2000 API-Gutschriften pro Monat (maximal 2 gleichzeitige Verbindungen).

Grenzen der Large Reasoning Modelle (LRMs)

Parshin Shojaee, Iman Mirzadeh, Keivan Alizadeh, Maxwell Horton, Samy Bengio, Mehrdad Farajtabar: The Illusion of Thinking: Understanding the Strengths and Limitations of Reasoning Models via the Lens of Problem Complexity, Paper June 2025

Apple Forscher diskutieren in diesem Papier die Möglichkeiten und Grenzen der Large Reasoning Modelle.
Abstract: „Jüngste Generationen von Frontier-Sprachmodellen haben Large Reasoning Models (LRMs) eingeführt, die detaillierte Denkprozesse erzeugen, bevor sie Antworten geben. Während diese Modelle eine verbesserte Leistung bei Argumentations-Benchmarks zeigen, bleiben ihre grundlegenden Fähigkeiten, Skalierungseigenschaften und Einschränkungen unzureichend verstanden. Die aktuellen Bewertungen konzentrieren sich in erster Linie auf etablierte mathematische und codierende Benchmarks und betonen die endgültige Antwortgenauigkeit. Dieses Bewertungsparadigma leidet jedoch oft unter Datenverunreinigungen und gibt keine Einblicke in die Struktur und Qualität der Veranlagungsspuren. In dieser Arbeit untersuchen wir diese Lücken systematisch mit Hilfe kontrollierbarer Puzzleumgebungen, die eine präzise Manipulation der kompositorischen Komplexität bei gleichzeitiger Aufrechterhaltung konsistenter logischer Strukturen ermöglichen. Dieses Setup ermöglicht nicht nur die Analyse von Endantworten, sondern auch der internen Argumentationsspuren und bietet Einblicke, wie LRMs „denken“. Durch umfangreiche Experimente an verschiedenen Rätseln zeigen wir, dass Grenz-LRMs einem vollständigen Genauigkeitskollaps jenseits bestimmter Komplexitäten ausgesetzt sind. Darüber hinaus weisen sie eine kontraintuitive Skalierungsgrenze auf: Ihre Argumentationsbemühungen steigen mit Problemkomplexität bis zu einem gewissen Punkt, dann sinken sie, obwohl sie ein angemessenes Token-Budget haben. Indem wir LRMs mit ihren Standard-LLM-Pendants unter gleichwertiger Schlussfolgerungsrechner vergleichen, identifizieren wir drei Leistungsregelungen: (1) Probleme mit geringer Komplexität, bei denen Standardmodelle überraschend LRMs übertreffen, (2) Mittelkomplexitätsaufgaben, bei denen zusätzliches Denken in LRMs Vorteile zeigt, und (3) hochkomplexe Aufgaben, bei denen beide Modelle kompensieren. Wir fanden heraus, dass LRMs Einschränkungen in der genauen Berechnung haben: Sie versäumen es, explizite Algorithmen und Gründe inkonsistent über Rätsel hinweg zu verwenden. Wir untersuchen auch die Argumentationsspuren in tieferer Tiefe, untersuchen die Muster von erforschten Lösungen und analysieren das Computerverhalten der Modelle, werfen Licht auf ihre Stärken, Grenzen und werfen letztendlich entscheidende Fragen über ihre wahren Argumentationsfähigkeiten auf.“

KI-Modelle anonym

Der freie Browser DuckDuckGo hat mit duck.ai ein Angebot, mit dem man verschiedene KI-Modelle kostenlos und annoym benutzen kann. Angeboten werden jeweils in den kostenlosen Grundversionen
GPT-4o mini (OpenAI) – eine Variante von ChatGPT
GPT o4-mini (OpenAI) – eine Variante von ChatGPT
Llama 3.3 (Meta) – Open Source
Mistral Small 3 (Mistral AI) – französische Entwicklung, europäische KI
Claude 3 Haiku (Anthropic) – einer der großen Platzhirsche neben ChatGPT

Filterblase

Anna Bolten: Platzt jetzt die Filterblase? Instagram, Tiktok und Co. spalten die Gesellschaft, indem sie andere Meinungen ausblenden. Zumindest glauben das viele. Die Realität ist komplizierter – und das wahre Problem liegt womöglich woanders. Frankfurter Allgemeine Zeitung 25.05.2025 (hinter der Bezahlschranke)
Zunächst wird das Konzept der Filterblase dargestellt: Algorithmische Filter sortieren die Inhalte und haben zur Folge, dass die Menschen in einer isolierten Informationsblase mit einer entsprechend verengten Meinung landen. Die Internetplattformen würden darüberhinaus Nutzer mit gleichen Positionen zusammenführen (Echokammern). Diese Konzepte werden von Kommunikationswissenschaftler zunehmend infragegestellt. Die Filterwirkungen seien nicht so stark wie angenommen: Nachrichten aus anderen Quellen werden verfolgt, alternative Meinungen können in Blogs nicht komplett abgeschirmt werden und Posts allgemein bleiben nicht besonders lange im Gedächtnis haften. Das Problem liege woanders: „Der Grund für zunehmende Polarisierung seien nicht einseitige Inhalte, sondern die Moderation auf den Plattformen. Hassrede, Beleidigungen und Anfeindungen werden kaum gelöscht. Fehlt ein gepflegter Diskuurs, werde der Austausch von sachlichen Argumenten sehr schwer.“

Buchseite 4 von 41
1 2 3 4 5 6 41