Große SprachmodelleCarsten Arzig
|
![]() |
Dieses Biblionetz-Objekt existiert erst seit November 2025.
Es ist deshalb gut möglich, dass viele der eigentlich vorhandenen Vernetzungen zu älteren Biblionetz-Objekten bisher nicht erstellt wurden.
Somit kann es sein, dass diese Seite sehr lückenhaft ist.
Zusammenfassungen
Große Sprachmodelle sind für viele der Inbegriff Künstlicher Intelligenz, dabei basieren sie auf nachvollziehbaren Techniken, viel Rechenzeit und einer Unmenge an Daten. Dieses Kapitel beleuchtet, wie große Sprachmodelle funktionieren und wie sie entstehen und betrachtet die Stärken und Schwächen dieser Technologie.
Dieses Kapitel erwähnt ...
![]() Personen KB IB clear | Aidan N. Gomez , Llion Jones , Lukasz Kaiser , Niki Parmar , Illia Polosukhin , Claude Shannon , Noam Shazeer , Jakob Uszkoreit , Ashish Vaswani , Warren Weaver | ||||||||||||||||||
![]() Begriffe KB IB clear | Generative Machine-Learning-Systeme (GMLS) computer-generated text
| ||||||||||||||||||
![]() Bücher |
| ||||||||||||||||||
![]() Texte |
|
Dieses Kapitel erwähnt vermutlich nicht ... 
![]() Nicht erwähnte Begriffe | Chat-GPT, GMLS & Bildung |
Zitationsgraph
Zitationsgraph (Beta-Test mit vis.js)
Anderswo finden
Volltext dieses Dokuments
![]() | Große Sprachmodelle: Artikel als Volltext @ Springer ( : , 648 kByte; : ) |
Anderswo suchen 
Beat und dieses Kapitel
Beat hat Dieses Kapitel erst in den letzten 6 Monaten in Biblionetz aufgenommen. Er hat Dieses Kapitel einmalig erfasst und bisher nicht mehr bearbeitet. Beat besitzt kein physisches, aber ein digitales Exemplar. Eine digitale Version ist auf dem Internet verfügbar (s.o.). Aufgrund der wenigen Einträge im Biblionetz scheint er es nicht wirklich gelesen zu haben. Es gibt bisher auch nur wenige Objekte im Biblionetz, die dieses Werk zitieren.


Generative Machine-Learning-Systeme (GMLS)


, 648 kByte;
)
Biblionetz-History