Technischer Hintergrund: Große Sprachmodelle (LLM)Fabian Lang
|
![]() |
Dieses Biblionetz-Objekt existiert erst seit November 2025.
Es ist deshalb gut möglich, dass viele der eigentlich vorhandenen Vernetzungen zu älteren Biblionetz-Objekten bisher nicht erstellt wurden.
Somit kann es sein, dass diese Seite sehr lückenhaft ist.
Zusammenfassungen
Das Kapitel bietet einen grundlegenden Überblick über die Funktionsweise großer Sprachmodelle (Large Language Models=LLMs) und verortet sie systematisch innerhalb des breiteren Feldes der Künstlichen Intelligenz. Es erläutert zentrale Begriffe wie Tokenisierung, Embedding, Attention und Sampling und erklärt, wie Modelle wie ChatGPT sprachliche Ausgaben auf Basis statistischer Wahrscheinlichkeiten erzeugen. Die zugrunde liegende Transformer-Architektur wird schrittweise beschrieben und in ihrer Relevanz für Textverarbeitung eingeordnet. Darüber hinaus werden zentrale technische Begrenzungen wie Kontextlänge, Halluzinationen, Bias und mangelndes Weltverständnis thematisiert. Es wird verdeutlicht, dass es sich bei LLMs trotz hoher Ausdrucksfähigkeit weiterhin um schwache KI handelt, da ihnen bewusstes Verstehen fehlt. Ziel des Kapitels ist es, Studierenden ein technisches Grundverständnis für die Funktionsweise dieser Systeme zu vermitteln – als Grundlage für eine reflektierte und verantwortungsvolle Nutzung im wissenschaftlichen Arbeiten, auch ohne technisches Vorwissen. Dazu gehört die Fähigkeit, zentrale Konzepte nachzuvollziehen, die Leistungsfähigkeit einzuordnen und systembedingte Grenzen kritisch zu erkennen.
Dieses Kapitel erwähnt ...
![]() Personen KB IB clear | George E. P. Box , Aidan N. Gomez , Llion Jones , Lukasz Kaiser , Peter Norvig , Niki Parmar , Illia Polosukhin , Stuart Russell , Noam Shazeer , Jakob Uszkoreit , Ashish Vaswani | |||||||||||||||||||||||||||
![]() Aussagen KB IB clear | Machine Learning kann bestehende Vorurteile/Ungerechtigkeiten verstärken/weitertragen | |||||||||||||||||||||||||||
![]() Begriffe KB IB clear | AGI
, Bewusstseinconsciousness
, bias
, Chat-GPT
, Generative Machine-Learning-Systeme (GMLS) computer-generated text
, Halluzination
, Handelnacting
, Intelligenz intelligence
, Kontextcontext
, Mensch
, Problem problem
, Verantwortungresponsability
, Wissenschaft science
| |||||||||||||||||||||||||||
![]() Bücher |
| |||||||||||||||||||||||||||
![]() Texte |
|
Dieses Kapitel erwähnt vermutlich nicht ... 
![]() Nicht erwähnte Begriffe | Generative Pretrained Transformer 3 (GPT-3), Generative Pretrained Transformer 4 (GPT-4), GMLS & Bildung, GMLS & Schule, Künstliche Intelligenz (KI / AI) |
Tagcloud
Zitationsgraph
Zitationsgraph (Beta-Test mit vis.js)
Anderswo finden
Volltext dieses Dokuments
![]() | Technischer Hintergrund: Große Sprachmodelle (LLM): Artikel als Volltext @ Springer ( : , 870 kByte; : ) |
Anderswo suchen 
Beat und dieses Kapitel
Beat hat Dieses Kapitel erst in den letzten 6 Monaten in Biblionetz aufgenommen. Er hat Dieses Kapitel einmalig erfasst und bisher nicht mehr bearbeitet. Beat besitzt kein physisches, aber ein digitales Exemplar. Eine digitale Version ist auf dem Internet verfügbar (s.o.). Es gibt bisher nur wenige Objekte im Biblionetz, die dieses Werk zitieren.


bias
Chat-GPT
Generative Machine-Learning-Systeme (GMLS)
Intelligenz
Mensch
Problem
Wissenschaft



, 870 kByte;
)
Biblionetz-History