/ en / Traditional / help

Beats Biblionetz - Begriffe

Reasoning models

Dieses Biblionetz-Objekt existiert erst seit Mai 2025. Es ist deshalb gut möglich, dass viele der eigentlich vorhandenen Vernetzungen zu älteren Biblionetz-Objekten bisher nicht erstellt wurden. Somit kann es sein, dass diese Seite sehr lückenhaft ist.

iconBiblioMap Dies ist der Versuch, gewisse Zusammenhänge im Biblionetz graphisch darzustellen. Könnte noch besser werden, aber immerhin ein Anfang!

Diese Grafik ist nur im SVG-Format verfügbar. Dieses Format wird vom verwendeteten Browser offenbar nicht unterstützt.

Diese SVG-Grafik fensterfüllend anzeigen

iconSynonyme

Reasoning models, LRM, large reasoning model

iconBemerkungen

Die aktuell höchste künstlich intelligente Evolutionsstufe sind Reasoning-Modelle wie GPT-4o und DeepSeek R1, die sogar einige der anspruchsvollsten Rätsel der Mathe-Olympiade lösen – Schritt für Schritt, inklusive sauber strukturierter Erklärung. Doch die alten Schwächen lassen sich genauso wenig unter der Oberfläche halten wie ein Korken im Meer. Immer wieder scheitern selbst die modernsten Modelle an banalen Alltagsfragen und -aufgaben, die sie eigentlich bewältigen müssten, wenn sie robuste Konzepte – etwa von Zahlen oder naturwissenschaftlichen Gesetzen – verinnerlicht hätten.
Von Andrea Trinkwalder im Text Denkbar echt simuliert (2025)
Durch ihre Reasoning-Fähigkeiten machen die Modelle zwar weniger Fehler und können komplexere Aufgaben bewältigen als Modelle ohne Reasoning. Auch sie sind aber nicht davor gefeit, zu halluzinieren oder Quatsch zu erzählen. Denn so „intelligent“ die neuen Sprachmodelle auch erscheinen mögen, darf man nie vergessen, dass sie weiterhin nichts anderes sind als hoch entwickelte Musterverarbeiter ohne echtes Verständnis. Sie extrahieren ihr Wissen aus gigantischen Textmengen und speichern es in statistischen Parametern. Ihnen fehlt jedoch das Bewusstsein, die Intentionalität und die an Erfahrungen gebundene Bedeutungssemantik, die menschliches Denken auszeichnet.
Von Jo Bager, Hartmut Gieselmann im Text Plapperbots mit Selbstreflektion (2025)
Dank des Reasoning kann die neue LLM-Generation kniffligere Aufgaben lösen als zuvor. Unter den US-amerikanischen Modellen stechen hier insbesondere ChatGPT o3 und Gemini 2.5 Pro hervor. Unter den chinesischen Modellen, die flüssig Deutsch sprechen, knackte DeepSeek die härtesten Probleme, musste die Gratis-Chats aufgrund der hohen Serverauslastung aber oft unterbrechen. Ein Sonderfall ist Perplexity, das zur Internetrecherche diverse Modelle einsetzt, darunter eine abgewandelte Version von DeepSeek R1 mit eigenen Content-Filtern und zusätzlichen Trainingsmaterialien. Da viele Anbieter einen großen Wirrwarr an Modellen bereitstellen, ist die Wahl eines passenden Modells oft nicht leicht. Zumal im Wochenrhythmus neue Versionen aufploppen: In letzter Sekunde vor Redaktionsschluss etwa Qwen3 von Alibaba. Infos und Studien zu den Modellen haben wir unter ct.de/ygsz zusammengetragen.
Von Jo Bager, Hartmut Gieselmann im Text Plapperbots mit Selbstreflektion (2025)

iconVerwandte Objeke

icon
Verwandte Begriffe
(co-word occurance)
deepseek(0.12)

iconStatistisches Begriffsnetz  Dies ist eine graphische Darstellung derjenigen Begriffe, die häufig gleichzeitig mit dem Hauptbegriff erwähnt werden (Cozitation).

iconVorträge von Beat mit Bezug

iconZitationsgraph

Diese Grafik ist nur im SVG-Format verfügbar. Dieses Format wird vom verwendeteten Browser offenbar nicht unterstützt.

Diese SVG-Grafik fensterfüllend anzeigen

iconZitationsgraph (Beta-Test mit vis.js)

iconErwähnungen  Dies ist eine nach Erscheinungsjahr geordnete Liste aller im Biblionetz vorhandenen Werke, die das ausgewählte Thema behandeln.

iconAnderswo suchen  Auch im Biblionetz finden Sie nicht alles. Aus diesem Grund bietet das Biblionetz bereits ausgefüllte Suchformulare für verschiedene Suchdienste an. Biblionetztreffer werden dabei ausgeschlossen.

iconBiblionetz-History Dies ist eine graphische Darstellung, wann wie viele Verweise von und zu diesem Objekt ins Biblionetz eingetragen wurden und wie oft die Seite abgerufen wurde.