KI Suchmaschine für wissenschaftliche Publikationen

Consensus ist eine KI-Suchmaschine für wissenschaftliche Publikationen
„Consensus is an AI-powered search engine for scientific research papers. Our mission is to make the world’s best knowledge more accessible for all. To create new knowledge, you must first understand what’s already known. But humanity’s hard-won insights are locked inside millions of research papers. Navigating this maze is overwhelming for researchers and purely out of reach for anyone outside academia. We’re building the best way to search, synthesize, and understand scientific knowledge— so researchers can get back to science, not searches, and everyone can access evidence, not opinion. We want to see a world with superhuman researchers, and a generation of citizen scientists. This is the world we’re creating with Consensus.“

Webscraping mit KI

Browse AI automatisiert das Webscraping und das Sammeln von Daten. „Unsere Scraping-API verarbeitet Browser, Proxies, CAPTCHAs und HTML-Parsing auf unserer Seite. Geben Sie uns einfach eine URL und erhalten Sie das HTML, Text oder Daten.“ Die kostenlose Probeversion enthält 2000 API-Gutschriften pro Monat (maximal 2 gleichzeitige Verbindungen).

Grenzen der Large Reasoning Modelle (LRMs)

Parshin Shojaee, Iman Mirzadeh, Keivan Alizadeh, Maxwell Horton, Samy Bengio, Mehrdad Farajtabar: The Illusion of Thinking: Understanding the Strengths and Limitations of Reasoning Models via the Lens of Problem Complexity, Paper June 2025

Apple Forscher diskutieren in diesem Papier die Möglichkeiten und Grenzen der Large Reasoning Modelle.
Abstract: „Jüngste Generationen von Frontier-Sprachmodellen haben Large Reasoning Models (LRMs) eingeführt, die detaillierte Denkprozesse erzeugen, bevor sie Antworten geben. Während diese Modelle eine verbesserte Leistung bei Argumentations-Benchmarks zeigen, bleiben ihre grundlegenden Fähigkeiten, Skalierungseigenschaften und Einschränkungen unzureichend verstanden. Die aktuellen Bewertungen konzentrieren sich in erster Linie auf etablierte mathematische und codierende Benchmarks und betonen die endgültige Antwortgenauigkeit. Dieses Bewertungsparadigma leidet jedoch oft unter Datenverunreinigungen und gibt keine Einblicke in die Struktur und Qualität der Veranlagungsspuren. In dieser Arbeit untersuchen wir diese Lücken systematisch mit Hilfe kontrollierbarer Puzzleumgebungen, die eine präzise Manipulation der kompositorischen Komplexität bei gleichzeitiger Aufrechterhaltung konsistenter logischer Strukturen ermöglichen. Dieses Setup ermöglicht nicht nur die Analyse von Endantworten, sondern auch der internen Argumentationsspuren und bietet Einblicke, wie LRMs „denken“. Durch umfangreiche Experimente an verschiedenen Rätseln zeigen wir, dass Grenz-LRMs einem vollständigen Genauigkeitskollaps jenseits bestimmter Komplexitäten ausgesetzt sind. Darüber hinaus weisen sie eine kontraintuitive Skalierungsgrenze auf: Ihre Argumentationsbemühungen steigen mit Problemkomplexität bis zu einem gewissen Punkt, dann sinken sie, obwohl sie ein angemessenes Token-Budget haben. Indem wir LRMs mit ihren Standard-LLM-Pendants unter gleichwertiger Schlussfolgerungsrechner vergleichen, identifizieren wir drei Leistungsregelungen: (1) Probleme mit geringer Komplexität, bei denen Standardmodelle überraschend LRMs übertreffen, (2) Mittelkomplexitätsaufgaben, bei denen zusätzliches Denken in LRMs Vorteile zeigt, und (3) hochkomplexe Aufgaben, bei denen beide Modelle kompensieren. Wir fanden heraus, dass LRMs Einschränkungen in der genauen Berechnung haben: Sie versäumen es, explizite Algorithmen und Gründe inkonsistent über Rätsel hinweg zu verwenden. Wir untersuchen auch die Argumentationsspuren in tieferer Tiefe, untersuchen die Muster von erforschten Lösungen und analysieren das Computerverhalten der Modelle, werfen Licht auf ihre Stärken, Grenzen und werfen letztendlich entscheidende Fragen über ihre wahren Argumentationsfähigkeiten auf.“

KI-Modelle anonym

Der freie Browser DuckDuckGo hat mit duck.ai ein Angebot, mit dem man verschiedene KI-Modelle kostenlos und annoym benutzen kann. Angeboten werden jeweils in den kostenlosen Grundversionen
GPT-4o mini (OpenAI) – eine Variante von ChatGPT
GPT o4-mini (OpenAI) – eine Variante von ChatGPT
Llama 3.3 (Meta) – Open Source
Mistral Small 3 (Mistral AI) – französische Entwicklung, europäische KI
Claude 3 Haiku (Anthropic) – einer der großen Platzhirsche neben ChatGPT

Filterblase

Anna Bolten: Platzt jetzt die Filterblase? Instagram, Tiktok und Co. spalten die Gesellschaft, indem sie andere Meinungen ausblenden. Zumindest glauben das viele. Die Realität ist komplizierter – und das wahre Problem liegt womöglich woanders. Frankfurter Allgemeine Zeitung 25.05.2025 (hinter der Bezahlschranke)
Zunächst wird das Konzept der Filterblase dargestellt: Algorithmische Filter sortieren die Inhalte und haben zur Folge, dass die Menschen in einer isolierten Informationsblase mit einer entsprechend verengten Meinung landen. Die Internetplattformen würden darüberhinaus Nutzer mit gleichen Positionen zusammenführen (Echokammern). Diese Konzepte werden von Kommunikationswissenschaftler zunehmend infragegestellt. Die Filterwirkungen seien nicht so stark wie angenommen: Nachrichten aus anderen Quellen werden verfolgt, alternative Meinungen können in Blogs nicht komplett abgeschirmt werden und Posts allgemein bleiben nicht besonders lange im Gedächtnis haften. Das Problem liege woanders: „Der Grund für zunehmende Polarisierung seien nicht einseitige Inhalte, sondern die Moderation auf den Plattformen. Hassrede, Beleidigungen und Anfeindungen werden kaum gelöscht. Fehlt ein gepflegter Diskuurs, werde der Austausch von sachlichen Argumenten sehr schwer.“

Facebook Bots

Julia Schymura: 3,8 Millionen Konten für Betrug und Propaganda. Millionen von Facebookaccounts verbreiten betrügerische Werbung und politische Propaganda. Meta scheint das bekannt zu sein. Trotzdem tut der Konzern kaum etwas dagegen. Das zeigt ein Bericht der NGO Reset Tech. Frankfurter Allgemeine Zeitung 31.05.2025 (hinter der Bezahlschranke) Berichtet wird über den Bericht „The Dormant Danger“ der Nichtregierungsorganisation Reset Tech. Analysiert wurden sieben Netzwrke aus insgesamt 3.8 Millionen Facebookseiten der letzten drei Jahre. Hauptsächlich handelt es sich dabei um russische Desinformationskampagnen, Hinweise auf dubiose Kapitalanlagen oder unseriöse medizinische Behandlungsmöglichkeiten. Meta entferne nur selektiv einzelne Anzeigen und Profile. „Warum Meta die Netzwerke nicht strenger zu verfolgen scheint, sarüber lässt sich nur spekulieren. Vielleicht, weil Meta mit den Anzeigen Geld verdient. Oder, weil diese Millionen von Fakeprofilen Facebook größer und beliebter erscheinen lassen könnten, als es nur mit authentischen Profilen der Fall wäre.“

Reset Tech Report. Exclusive: The Dormant Danger Research Report: How Meta Ignores Large-Scale Inauthentic Behavior Networks of Malicious Advertisers

Digitaler Sprachumbau

Adrian Lobe: Wenn Sie diese Wörter verwenden, hat die KI schon Ihr Hirn verändert, Die Welt 20.05.2025 (hinter der Bezahlschranke)
Chatsbots verändern das Wording in wissenschaftlichen Fachpublikationen. Insbesondere steigt die Zahl der Stilwörter wie „wesentlich“ und „präsentieren“. Außerdem steigt die Gefahr gefälschter Publikationen durch die Papermills. „Sprachmodelle mögen ein nützliches Tool sein, um Studienergebnisse zusammenzufassen. Aber sie verändern auch das Publikationswesen, weil sich jeder mit frei zugänglichen Chatsbots seine Studie zusammenzuprompten.“ Auch bei gesprochener Sprache, bei der Untersuchung von 280.000 englischsprachiger YouTube-Videos von Präsentationen werden einschlägige Begriffe festgestellt: „Der Mensch spricht die Sprache der Maschinen.“ Die Gefahr von weitergehenden Manipulation besteht. „Man muss dem Menschen keine Gehirnchips implantieren, um in ihre Köpfe einzudringen – es reicht, ihre Sprache zu verändern.“

Buchseite 2 von 39
1 2 3 4 39