Reasoning models

BiblioMap 
Synonyme
Reasoning models, LRM, large reasoning model
Bemerkungen
Bücher zuoberst.
Die aktuell höchste künstlich intelligente Evolutionsstufe sind Reasoning-Modelle wie GPT-4o und DeepSeek R1, die sogar einige der anspruchsvollsten Rätsel der Mathe-Olympiade lösen – Schritt für Schritt, inklusive sauber strukturierter Erklärung. Doch die alten Schwächen lassen sich genauso wenig unter der Oberfläche halten wie ein Korken im Meer. Immer wieder scheitern selbst die modernsten Modelle an banalen Alltagsfragen und -aufgaben, die sie eigentlich bewältigen müssten, wenn sie robuste Konzepte – etwa von Zahlen oder naturwissenschaftlichen Gesetzen – verinnerlicht hätten.
Von Andrea Trinkwalder im Text Denkbar echt simuliert (2025) Durch ihre Reasoning-Fähigkeiten machen die Modelle zwar weniger Fehler und können komplexere Aufgaben bewältigen als Modelle ohne Reasoning. Auch sie sind aber nicht davor gefeit, zu halluzinieren oder Quatsch zu erzählen. Denn so „intelligent“ die neuen Sprachmodelle auch erscheinen mögen, darf man nie vergessen, dass sie weiterhin nichts anderes sind als hoch entwickelte Musterverarbeiter ohne echtes Verständnis. Sie extrahieren ihr Wissen aus gigantischen Textmengen und speichern es in statistischen Parametern. Ihnen fehlt jedoch das Bewusstsein, die Intentionalität und die an Erfahrungen gebundene Bedeutungssemantik, die menschliches Denken auszeichnet.
Von Jo Bager, Hartmut Gieselmann im Text Plapperbots mit Selbstreflektion (2025) Dank des Reasoning kann die neue LLM-Generation kniffligere Aufgaben lösen als zuvor. Unter den US-amerikanischen Modellen stechen hier insbesondere ChatGPT o3 und Gemini 2.5 Pro hervor. Unter den chinesischen Modellen, die flüssig Deutsch sprechen, knackte DeepSeek die härtesten Probleme, musste die Gratis-Chats aufgrund der hohen Serverauslastung aber oft unterbrechen. Ein Sonderfall ist Perplexity, das zur Internetrecherche diverse Modelle einsetzt, darunter eine abgewandelte Version von DeepSeek R1 mit eigenen Content-Filtern und zusätzlichen Trainingsmaterialien.
Da viele Anbieter einen großen Wirrwarr an Modellen bereitstellen, ist die Wahl eines passenden Modells oft nicht leicht. Zumal im Wochenrhythmus neue Versionen aufploppen: In letzter Sekunde vor Redaktionsschluss etwa Qwen3 von Alibaba. Infos und Studien zu den Modellen haben wir unter ct.de/ygsz zusammengetragen.
Von Jo Bager, Hartmut Gieselmann im Text Plapperbots mit Selbstreflektion (2025)
Verwandte Objeke
![]() Verwandte Begriffe (co-word occurance) | ![]() |
Statistisches Begriffsnetz 
Vorträge von Beat mit Bezug
Zitationsgraph
Zitationsgraph (Beta-Test mit vis.js)
5 Erwähnungen 
- Is DeepSeek a Metacognition AI? (Ronaldo Mota) (2025)
- Plapperbots mit Selbstreflektion - Acht KI-Sprachmodelle mit Reasoning-Funktionen im Test (Jo Bager, Hartmut Gieselmann) (2025)
- The Illusion of Thinking - Understanding the Strengths and Limitations of Reasoning Models
via the Lens of Problem Complexity (Parshin Shojaee, Iman Mirzadeh, Keivan Alizadeh, Maxwell Horton, Samy Bengio, Mehrdad Farajtabar) (2025)
- Apple-Paper: Warum Reasoning-Modelle wohl nicht denken - Sie brauchen viel Leistung, liefern aber nicht immer bessere Ergebnisse: Large Reasoning Models sollen die KI revolutionieren. Eine Apple-Studie kritisiert das. (Ben Schwan) (2025)
- Computer, mach meinen Job! (Ronald Eikenberg) (2025)
Anderswo suchen 
Biblionetz-History 
Biblionetz-Verweise auf 'Reasoning models'