/ en / Traditional / help

Beats Biblionetz - Texte

Prompt Engineering: Gute Frage, gutes Ergebnis

Fabian Lang
Zu finden in: Künstliche Intelligenz in Seminar- und Abschlussarbeiten (Seite 27 bis 57), 2025 local web 
Erste Seite des Textes (PDF-Thumbnail)
Dieses Biblionetz-Objekt existiert erst seit November 2025. Es ist deshalb gut möglich, dass viele der eigentlich vorhandenen Vernetzungen zu älteren Biblionetz-Objekten bisher nicht erstellt wurden. Somit kann es sein, dass diese Seite sehr lückenhaft ist.

iconZusammenfassungen

Künstliche Intelligenz in Seminar- und AbschlussarbeitenDieses Kapitel bietet einen praxisorientierten Überblick über Prompt Engineering zur gezielten Steuerung großer Sprachmodelle im wissenschaftlichen Umfeld. Es wird gezeigt, wie die strukturierte Gestaltung von Prompts – durch präzise Instruktionen, spezifische Kontexte und klare Vorgaben – die Qualität, Relevanz und Nachvollziehbarkeit KI-generierter Antworten verbessert. Es werden Methoden beschrieben, die das Modell befähigen, Aufgaben anhand von Beispielen zu verstehen, komplexe Probleme schrittweise zu analysieren, verschiedene Lösungswege zu vergleichen und den eigenen Denkprozess transparent zu machen. Zusätzlich wird erläutert, wie externe Informationen, Überprüfungsschritte sowie die gezielte Parametrisierung von Antwortstil und Länge die Ergebnisse weiter optimieren können. Das Kapitel beleuchtet zudem die Rolle integrierter Tools wie Internetsuche, Codegenerierung und agentenbasierter Workflows zur Erweiterung der KI-Funktionen. Ein besonderer Schwerpunkt liegt auf „Prompting for Prompts“: Hierbei wird die KI selbst zur Entwicklung und Optimierung von Prompts eingesetzt. Insgesamt vermittelt das Kapitel die methodischen Grundlagen für einen effektiven Einsatz von Prompt Engineering im wissenschaftlichen Arbeiten.
Von Fabian Lang im Buch Künstliche Intelligenz in Seminar- und Abschlussarbeiten (2025) im Text Prompt Engineering: Gute Frage, gutes Ergebnis

iconDieses Kapitel erwähnt ...


Personen
KB IB clear
Sandhini Agarwal , Dario Amodei , Amanda Askell , Christopher Berner , Tom B. Brown , Yuan Ca , Mark Chen , Benjamin Chess , Rewon Child , Jack Clark , Kewal Dhariwal , Prafulla Dhariwal , Scott Gray , Thomas L. Griffiths , Shixiang Shane Gu , Tom Henighan , Ariel Herbert-Voss , Christopher Hesse , Yusuke Iwasawa , Jared Kaplan , Takeshi Kojima , Gretchen Krueger , Mateusz Litwin , Benjamin Mann , Yutaka Matsuo , Sam McCandlish , Karthik Narasimhan , Arvind Neelakantan , Alec Radford , Aditya Ramesh , Machel Reid , Nick Ryder , Girish Sastry , Izhak Shafran , Pranav Shyam , Eric Sigler , Melanie Subbiah , Ilya Sutskever , Clemens Winter , Jeffrey Wu , Shunyu Yao , Dian Yu , Jeffrey Zhao , Daniel M. Ziegler

Begriffe
KB IB clear
Chain of Thought , Generative Machine-Learning-Systeme (GMLS)computer-generated text , Internetinternet , Optimierung , prompt engineering , Retrieval Augmented Generation (RAG) , Wissenschaftscience
icon
Bücher
Jahr  Umschlag Titel Abrufe IBOBKBLB
2020 local web  Language Models are Few-Shot Learners (Tom B. Brown, Benjamin Mann, Nick Ryder, Melanie Subbiah, Jared Kaplan, Kewal Dhariwal, Prafulla Dhariwal, Arvind Neelakantan, Pranav Shyam, Girish Sastry, Amanda Askell, Sandhini Agarwal, Ariel Herbert-Voss, Gretchen Krueger, Tom Henighan, Rewon Child, Aditya Ramesh, Daniel M. Ziegler, Jeffrey Wu, Clemens Winter, Christopher Hesse, Mark Chen, Eric Sigler, Mateusz Litwin, Scott Gray, Benjamin Chess, Jack Clark, Christopher Berner, Sam McCandlish, Alec Radford, Ilya Sutskever, Dario Amodei) 2, 8, 2, 8, 5, 6, 4, 6, 7, 4, 3, 9 44 5 9 176
icon
Texte
Jahr  Umschlag Titel Abrufe IBOBKBLB
2022 local web  Large Language Models are Zero-Shot Reasoners (Takeshi Kojima, Shixiang Shane Gu, Machel Reid, Yutaka Matsuo, Yusuke Iwasawa) 25, 6, 2, 2, 2, 8 5 5 8 45
2023 local web  Tree of Thoughts (Shunyu Yao, Dian Yu, Jeffrey Zhao, Izhak Shafran, Thomas L. Griffiths, Yuan Ca, Karthik Narasimhan) 4, 3, 3, 2, 2, 4, 5, 5, 2, 2, 5, 11 2 6 11 125

iconDieses Kapitel erwähnt vermutlich nicht ... Eine statistisch erstelle Liste von nicht erwähnten (oder zumindest nicht erfassten) Begriffen, die aufgrund der erwähnten Begriffe eine hohe Wahrscheinlichkeit aufweisen, erwähnt zu werden.

icon
Nicht erwähnte Begriffe
Chat-GPT, GMLS & Bildung

iconZitationsgraph

Diese Grafik ist nur im SVG-Format verfügbar. Dieses Format wird vom verwendeteten Browser offenbar nicht unterstützt.

Diese SVG-Grafik fensterfüllend anzeigen

iconZitationsgraph (Beta-Test mit vis.js)

iconAnderswo finden

icon

iconVolltext dieses Dokuments

Auf dem WWW Prompt Engineering: Gute Frage, gutes Ergebnis: Artikel als Volltext @ Springer (lokal: PDF, 952 kByte; WWW: Link OK )

iconAnderswo suchen  Auch im Biblionetz finden Sie nicht alles. Aus diesem Grund bietet das Biblionetz bereits ausgefüllte Suchformulare für verschiedene Suchdienste an. Biblionetztreffer werden dabei ausgeschlossen.

iconBeat und dieses Kapitel

Beat hat Dieses Kapitel erst in den letzten 6 Monaten in Biblionetz aufgenommen. Er hat Dieses Kapitel einmalig erfasst und bisher nicht mehr bearbeitet. Beat besitzt kein physisches, aber ein digitales Exemplar. Eine digitale Version ist auf dem Internet verfügbar (s.o.). Es gibt bisher nur wenige Objekte im Biblionetz, die dieses Werk zitieren.

iconBiblionetz-History Dies ist eine graphische Darstellung, wann wie viele Verweise von und zu diesem Objekt ins Biblionetz eingetragen wurden und wie oft die Seite abgerufen wurde.