Quellcodekritik von Deep Seek

Markus Krajewski, Ranjodh Singh Dhaliwal: Wie tief lässt Deep Seek blicken? Wal mit Datenhunger: das KI-Sprachmodell Deep Seek Das Innenleben von KI-Sprachmodellen ist in der Regel ein wohlgehütetes Geheimnis. Der chinesische Senkrechtstarter macht eine Ausnahme und legt seinen Code offen. Eine Tiefenlektüre. Frankfurter Allgemeine Zeitung 11.07.2025 (hinter der Bezahlschranke)
Deep Seek hat seine Modelle, nicht aber die verbesserte Version V3(0324), als open weight zur Verfügung gestellt. Für den Eigengebrauch können die Sprachmodelle heruntergeladen werden, um sie für eigene Zwecke zu optimieren. Die Autoren stellen hier eine Quellcodekritik vor: „Die von Deep Seek offengelegten Codes wurde von uns nicht nur eingesehen, sondern exemplarisch, direkt zwischen den einzelnen Kommandos, mit erläuternden Kommentaren versehen, die vor allem für Nichtinformatiker die Hintergründe und Funktion der Algothemen verständlich machen sollen.“ Dies ist auf https://github.com/nachsommer/deepseekV3-SCC abgelegt. In diesem Aufsatz werden die Ergebnisse zusammengefasst. Zunächst bilden 5 knappe Dateien der Programmiersprache Python das Kerngerüst. Es wird „definiert, welche Daten als Eingabewerte in welcher Form übernommen werden„. Vorhandene Spezialchips werden abgeprüft. Transformer-Bibliotheken bringen „das Sprachvermögen mit dem im Latenzraum gespeicherten Weltwissen zusammmen“. Sprachpartikel werden durch Zahlen ersetzt und in der Antwort in einer spezifischen Form von Nähe und Aufmerksamkeitscluster wieder zusammengesetzt. Eine Nutzeranfrage wird durch eine spezielle Architektur angenommen: 6 Experten nehmen die Anfrage entgegen und reichen sie an 64 Experten weiter.
Nicht ersichtlich sind allerdings die Trainingsprozesse des Modells. „Mit dem gelieferten Python-Code lässt sich das Modell selbst nicht ohne Weiteres zum Training animieren, um von Grund auf mit neuem Weltwissen (das heißt: dem gesamten Internet der Gegenwart) gefüttert zu werden.“ Zensur- und Filtermechanismen sind nicht ersichtlich. Unklar ist auch, wie das Modell zu seinen Ergebnissen kommt. Eine eingebaute, nicht näher explizitierte Selbstreflexion, „Chain of Thougth (CoT)“ spielt hier eine zentrale Rolle.

Pubmed retten

Daniel Delhaes: Wenn Politik Forschungsdaten gefährdet. Verzweifelt versuchen Wissenschaftler, Forschungsdaten aus Amerika vor der Trump-Regierung zu schützen. Hierzulande warten sie vergeblich auf Hilfe – und gehen in ihrer Not ungewöhnliche Wege. Handelsblatt 07.07.2015
Die weltgrößte, englischsprachige Suchmaschine für medizinische Publikationen, Pubmed, „ist Teil des National Institute for Health (NIH), dessen Etat die Regierung von US-Präsident Donald Trump massiv gekürzt hat. Wer etwas über den aktuellen Forschungsstand zum Brustkrebs, Herzinfarkte oder andere biomedizinische Fragen wissen will, der sucht bei Pubmed. Die Sorge ist groß, dass die Daten nicht mehr sicher sind, dass sie womöglich zensiert oder mit Beiträgen gefüllt werden, die vielleicht Trumps, aber nicht mehr wissenschaftlichen Standards genügen. Es wäre das „Killer-Virus“ für die internationale Community. „Was ist mit Pubmed?“, fragen Wissenschaftler immer wieder sorgenvoll in Köln an.“
Die Deutsche Zentralbibliothek für Medizin (ZB Med) in Köln versucht, diese Datenbank zu retten. Mangels kurzfristiger Förderung wurde ein Antrag bei der Deutschen Forschungsgemeinschaft (DFG) gestellt.
„Albers will mit ihrem Team die Arbeitsgrundlage der international vernetzt arbeitenden Wissenschaftscommunity sichern. Entstehen soll keine reine Kopie von Pubmed, ZB Med will vielmehr eine offene, dezentral organisierte Alternative zu Pubmed schaffen. Die aktuellen Inhalte hat ZB Med bereits über sein Suchportal Livivo zugänglich gemacht. Künftig sollen auch neue medizinische Fachinformationen Eingang finden, und das System soll international dezentral arbeiten. „Politischer Einfluss wie in den USA kann in jedem Land stattfinden“, sagt Albers. Das Wissenschaftssystem soll resilient werden.“

Wikipedia: Ein Drittel der Artikel problematisch

Valentin Bauer, Patrick Bernau, Christopher Herstell, Jacob Kramer: Wikipedia weiß immer weniger. Der Enzyklopädie fehlen Autoren. Jetzt zeigt eine F.A.S.-Untersuchung: Mindestens jeder dritte Artikel hat ein Problem. Frankfurter Allgemeine Zeitung 05.07.2025
„Und was ist eigentlich mit den Artikeln, denen der Leser ihre Aktualität nicht direkt ansieht? Die F.A.S. hat das nun systematisch untersucht. Mehr als 1000 Wikipedia-Artikel haben wir zufällig aus­gewählt. Künstliche Intelligenz hat die Texte auf Auffälligkeiten geprüft, dann hat ein Team von Dokumentaren des F.A.Z.-Archivs diese Auffälligkeiten noch einmal unter die Lupe genommen. Erst wenn zwei Menschen überzeugt waren, dass eine Information nicht mehr stimmt, haben wir sie auf die Liste genommen.
Dabei stellte sich heraus: Probleme gibt es auf mehr als jeder dritten Seite. Mindestens 20 Prozent der Seiten enthalten Informationen, die nicht mehr aktuell sind, und nur bei der Hälfte fällt es sofort auf. Dazu kommen fast noch einmal so viele Seiten mit Angaben, die noch nie gestimmt haben.“

Texterstellung mit KI richtig nutzen

Stella-Sophie Wojtczak: Schadet KI unserer Sprache? Eine Sprach-Expertin gibt Tipps zur richtigen Nutzung. Verdirbt KI unsere Sprache? Das muss nicht sein. Die Sprachberaterin Anne-Kathrin Gerstlauer gibt in der neuen Folge von t3n Interview Tipps, mit denen Nutzer:innen ihre Sprachkenntnisse sogar noch verbessern können. t3n 29.06.1952
Die Journalistin und Sprachberaterin empfiehlt, den richtigen Chatsbot auszuwählen (für Texte besonders geeignet: Claude, weniger ChatGPT oder Copilot). Zunächst sollte der Chatbot mit vier fünf Beispieltexten traniert werden. Außerdem sollten grundlegende Sprachregeln befolgt werden:
– Kurze Sätze
– Füllwörter streichen
– aktiv schreiben
– Nominalstil vermeiden

Test von Chatsbots

Computerwissenschaftler der Universität Berkeley haben eine Testanwendung für Chatbots entwickelt und im Anschluß die Firma LMArena gegründet. Inzwischen können über 400, auch teils normalerweise kostenpflichtige Chatbots parallel getestet werden.
Und so funktioniert es:
„Eine Frage stellen: Geben Sie Ihre Anregung oder Frage in die offene Arena ein. Die Daten werden erhoben, um faire, öffentliche Bewertungen zu ermöglichen.
Antworten vergleichen: Ihnen werden zwei anonyme Modelle angezeigt. Sehen Sie sich die Antworten genauer an und entscheiden Sie, welche Antwort am besten zu Ihren Anforderungen passt.
Wählen Sie die Besten: Wählen Sie Ihre bevorzugte Antwort. Ihre Stimme trägt zur Gestaltung der öffentlichen KI-Bestenlisten bei.
Entdecken und wiederholen: Nach der Abstimmung werden die Modellidentitäten bekannt gegeben. Erkunden Sie weiter und tragen Sie zur Verbesserung der KI in diesem offenen, von der Community betriebenen Raum bei.“

Marie-Astrid Langer: Ein Boxring für Chatbots: In der LM-Arena treten KI-Modelle gegeneinander an. Gemini, Claude, GPT – woher weiss man, welches KI-Modell das beste ist? Forscher der Universität Berkeley lassen Chatbots gegeneinander antreten. Selbst den Erfolg von Deepseek hatten sie so kommen sehen. Neue Zürcher Zeitung 28.06.2025 (hinter der Bezahlschranke)
„KI-Firmen begannen, den Wissenschftlern Prototypen neuer Modelle zuzusenden, und verbesserten mit den in der Arena gewonnenen Erkenntnissen ihre Algorithmen. Denn die erhobenen Daten bieten wertvolle Informationen dazu, wie Nutzer mit den Chatbots interagieren. Die Plattform teilt diese mit den KI-Firmen, zumindest teilweise. Rund 20 Prozent aller erhobenen Daten leite man weiter, sagen die Gründer: genug, dass die Informationen nützlich für leichte Verbesserungen seien, aber zu wenig, als dass die Firman das Tanking-System austricksen können.“

Typen der Wikipedia-Nutzer

Dale Zhou, Shubhankar Patankar, David M. Lydon-Staley, Perry Zurn, Martin Gerlach, Dani S. Bassett: Architectural styles of curiosity in global Wikipedia mobile app readership, in: Science Advances 25.10.2024
Abstract: „Die intrinsisch motivierte Informationssuche ist ein Ausdruck der Neugier, die als zentraler Bestandteil der menschlichen Natur gilt. Die meisten Untersuchungen zur Neugier stützen sich jedoch auf kleine, westliche Stichproben. Hier analysieren wir eine naturalistische Population von 482.760 Lesern, die die mobile App von Wikipedia in 14 Sprachen aus 50 Ländern oder Territorien nutzen. Durch die Messung der Struktur von Wissensnetzwerken, die von Lesern aufgebaut werden, die einen Faden durch Wikipedia-Artikel spinnen, replizieren wir zwei Arten von Neugier, die zuvor in Laborstudien identifiziert wurden: den nomadischen „Wichtigtuer“ und den gezielten „Jäger“. Darüber hinaus finden wir Belege für einen weiteren Stil – den „Tänzer“ -, der zuvor durch eine historisch-philosophische Untersuchung von Texten über zwei Jahrtausende hinweg vorhergesagt wurde und durch kreative Formen der Wissensproduktion gekennzeichnet ist. Wir stellen weltweit Zusammenhänge zwischen der Struktur von Wissensnetzwerken und Indikatoren auf Bevölkerungsebene für räumliche Navigation, Bildung, Stimmung, Wohlbefinden und Ungleichheit fest.“

Holocaust als Meme

Bildungsstätte Anne Frank. Der Holocaust als Meme: Wie in digitalen Räumen Geschichte umgedeutet wird. Mai 2025
Abstract: „In unserem Report „Der Holocaust als Meme“ stellen wir einige Beispiele geschichtsrevisionistischer Inhalte in digitalen Medien vor, die in unseren Augen eine breitere Öffentlichkeit brauchen – sei es, weil sie besonders große Reichweiten erzielen, besonders subtilen Strategien folgen oder zu schon bedenklich normalisierten Formen alternativhistorischer Erzählungen gehören. Die aufgeführten Beispiele und Analysen dienen dazu, zentrale Beobachtungen, wiederkehrende Muster und exemplarische Phänomene im Umgang mit Geschichte in digitalen Räumen zu veranschaulichen.
Ein besonderer Fokus liegt auf den Plattformen Instagram und TikTok, da sie zu den reichweitenstärksten und einflussreichsten Social-Media-Kanälen unter Jugendlichen und jungen Erwachsenen zählen. Neben sozialen Medien beziehen wir uns auch auf digitale Spiele mit historischem Setting.“

Test Chatbots

Karen Okamoto (John Jay College of Criminal Justice): A Battle of the Chatbots: An Exploratory Comparison of ChatGPT, Gemini, Copilot, Claude, Perplexity and HuggingChat, in: Practical Academic Librarianship: The International Journal of the SLA Academic Division Vol. 15 No. 1 (2025)
Abstract: „Diese explorative Studie vergleicht die Ergebnisse der kostenlosen Versionen von sechs generativen Chatbots mit künstlicher Intelligenz
– ChatGPT, Gemini, Copilot, Claude, Perplexity und HuggingChat. Fünf Fragen wurden an alle Chatbots geschickt und auf Länge, Korrektheit und Tonfall der Antwort sowie auf zusätzliche Funktionen der Chatbots wie Zitate, Weblinks und hilfreiche Folgefragen hin untersucht.
Dieser Vergleich ergab, dass kein einziger Chatbot bei der Beantwortung aller Fragen herausragte, obwohl einige gute Antworten lieferten, was darauf hinweist, dass es möglicherweise wichtig ist, sich nicht nur auf einen Chatbot zu verlassen, um Antworten zu erhalten, und dass verschiedene Chatbots kontinuierlich untersucht, da sich der Bereich der generativen KI schnell entwickelt und fortentwickelt.“

KI in Bibliotheken

Carina Pizzini: Einsatzgebiete von Künstlicher Intelligenz in wissenschaftlichen Bibliotheken – Praxis und Perspektiven. Bachelorarbeit 2025
Abstract: „Künstliche Intelligenz ist ein aktuelles Thema und aus vielen Bereichen des Lebens nicht mehr wegzudenken. Da KI mittlerweile neben vielen anderen Disziplinen auch die Wissenschaft und den Hochschulalltag beeinflusst, setzen sich auch wissenschaftliche Bibliotheken zunehmend mit der Thematik auseinander. Um Forschende, Studierende und Lehrende hinsichtlich dieser Entwicklung zu unterstützen, müssen sich Bibliotheken an den Wandel anpassen und Angebote schaffen, um ihnen die nötigen Informationen zum Umgang und Einsatz KI-gestützter Werkzeuge in Forschung und Lehre zu vermitteln. Und auch im bibliothekarischen Alltag bieten KI-Tools das Potential, Prozesse und Dienstleistungen zu optimieren. In dieser Arbeit wird exemplarisch aufgezeigt, inwiefern wissenschaftliche Bibliotheken Künstliche Intelligenz bereits in ihren Arbeitsalltag integriert haben und nutzen, ob sie eigene Forschung zu dem Thema betreiben und welche Angebote sie zur Informationsvermittlung entwickelt haben. Dies geschieht anhand einer Literaturanalyse, in der fünf wissenschaftliche Bibliotheken basierend auf festgelegten Kriterien hinsichtlich ihres Engagements bezüglich KI untersucht werden. Ergänzend werden im Anschluss Chancen und Herausforderungen rund um den Einsatz von KI-Technologien in wissenschaftlichen Bibliotheken herausgearbeitet und die Auswirkungen auf die Rolle von Bibliothekar*innen erläutert. Abschließend werden die Ergebnisse zusammengefasst und ein Ausblick auf die mögliche zukünftige Entwicklung gegeben.“

Buchseite 1 von 39
1 2 3 39