Sieben Mythen der KI-NutzungSandra Schön, Benedikt Brünner, Martin Ebner, Sarah Diesenreither, Barbara Hanfstingl, Georg Krammer
Publikationsdatum:
|
![]() |
Dieses Biblionetz-Objekt existiert erst seit Februar 2026.
Es ist deshalb gut möglich, dass viele der eigentlich vorhandenen Vernetzungen zu älteren Biblionetz-Objekten bisher nicht erstellt wurden.
Somit kann es sein, dass diese Seite sehr lückenhaft ist.
Zusammenfassungen


Wer das Internet nutzt, kommt im Frühjahr 2026 nicht um Anwendungen generativer Künstlicher Intelligenz (kurz KI) herum. Suchmaschinen bieten neben Links standardmäßig KI-generierte Antworten an, Chatbots unterstützen bei der Buchung von Websites, Schüler:innen lassen sich Tests passend zu den Arbeitsblättern der Lehrer:innen generieren usw. – Doch nicht alles, was uns die KI-Anwendungen liefern, wie wir sie nutzen und ihre Ergebnisse verstehen, ist zutreffend und unproblematisch. Das liegt auch an Missverständnissen darüber, wie KIAnwendungen funktionieren. Aus unserer Sicht – es gibt dazu noch keine empirische Evidenz – verdienen folgende sieben Aussagen besondere Aufmerksamkeit, insbesondere auch im Kontext von Bildung, Schule und Hochschule:
- 1. KI-Anwendungen sind neutral, objektiv und vorurteilsfrei
- KI-Anwendungen arbeiten logisch
- KI-Anwendungen denken und lernen wie Menschen
- KI-Anwendungen sind empathisch
- KI-Anwendungen sind ökologisch und sozial problemlos
- KI-Nutzung ist rechtlich einwandfrei
- KI-Anwendungen machen Wissen und Kompetenzentwicklung überflüssig
In diesem Beitrag möchten wir diese als „Mythen“ bezeichneten Aussagen beschreiben und aufzeigen, dass und warum sie nichtzutreffend sind. Damit möchten wir einen zukünftig fundierten Umgang und durch die Beschreibung von KI-Mythen Forschung dazu initiieren und unterstützen.
Dieser Text erwähnt ...
![]() Personen KB IB clear | Keivan Alizadeh , Samy Bengio , Sophia Chen , Samuel Kai Wah Chu , Mehrdad Farajtabar , Marte Henningsen , Maxwell Horton , Marc-Uwe Kling , Jac Ka Lok Leung , Iman Mirzadeh , Rainer Mühlhoff , Davy Tsz Kit Ng , Maggie Shen Qiao , Parshin Shojaee | |||||||||||||||||||||||||||||||||||||||||||||
![]() Aussagen KB IB clear | Generative Machine-Learning-Systeme benötigen viel Energie | |||||||||||||||||||||||||||||||||||||||||||||
![]() Begriffe KB IB clear |
Denken thinking
, Generative Machine-Learning-Systeme (GMLS) computer-generated text
, Maschine machine
, Mensch
, Schreibenwriting
, Suchmaschine search engine
| |||||||||||||||||||||||||||||||||||||||||||||
![]() Bücher |
| |||||||||||||||||||||||||||||||||||||||||||||
![]() Texte |
|
Dieser Text erwähnt vermutlich nicht ... 
![]() Nicht erwähnte Begriffe | Chat-GPT, GMLS & Bildung |
Tagcloud
Zitationsgraph
Zitationsgraph (Beta-Test mit vis.js)
Anderswo finden
Volltext dieses Dokuments
![]() | Sieben Mythen der KI-Nutzung: Artikel als Volltext ( : , 840 kByte; : ) |
Anderswo suchen 
Beat und dieser Text
Beat hat Dieser Text erst in den letzten 6 Monaten in Biblionetz aufgenommen. Er hat Dieser Text einmalig erfasst und bisher nicht mehr bearbeitet. Beat besitzt kein physisches, aber ein digitales Exemplar. Eine digitale Version ist auf dem Internet verfügbar (s.o.). Es gibt bisher nur wenige Objekte im Biblionetz, die dieses Werk zitieren.


Denken
Generative Machine-Learning-Systeme (GMLS)
Maschine
Mensch
Suchmaschine





, 840 kByte;
)
Biblionetz-History