Generative AI without guardrails can harm learningEvidence from high school mathematics
Hamsa Bastani, Osbert Bastani, Alp Sungu, Haosen Ge, Özge Kabakcı, Rei Mariman
Publikationsdatum:
|
![]() |
Dieses Biblionetz-Objekt existiert erst seit September 2025.
Es ist deshalb gut möglich, dass viele der eigentlich vorhandenen Vernetzungen zu älteren Biblionetz-Objekten bisher nicht erstellt wurden.
Somit kann es sein, dass diese Seite sehr lückenhaft ist.
Zusammenfassungen
Generative AI is poised to revolutionize how humans work, and has already demonstrated promise in significantly improving human productivity. A key question is how generative AI affects learning—namely, how humans acquire new skills as they perform tasks. Learning is critical to long-term productivity, especially since generative AI is fallible and users must check its outputs. We study this question via a field experiment where we provide nearly a thousand high school math students with access to generative AI tutors. To understand the differential impact of tool design on learning, we deploy two generative AI tutors: one that mimics a standard ChatGPT interface (“GPT Base”) and one with prompts designed to safeguard learning (“GPT Tutor”). Consistent with prior work, our results show that having GPT-4 access while solving problems significantly improves performance (48% improvement in grades for GPT Base and 127% for GPT Tutor). However, we additionally find that when access is subsequently taken away, students actually perform worse than those who never had access (17% reduction in grades for GPT Base)—i.e., unfettered access to GPT-4 can harm educational outcomes. These negative learning effects are largely mitigated by the safeguards in GPT Tutor. Without guardrails, students attempt to use GPT-4 as a “crutch” during practice problem sessions, and subsequently perform worse on their own. Thus, decision-makers must be cautious about design choices underlying generative AI deployments to preserve skill learning and long-term productivity.
Von Hamsa Bastani, Osbert Bastani, Alp Sungu, Rei Mariman im Text Generative AI without guardrails can harm learning (2025)
Dieser wissenschaftliche Zeitschriftenartikel erwähnt ...
Dieser wissenschaftliche Zeitschriftenartikel erwähnt vermutlich nicht ... 
![]() Nicht erwähnte Begriffe | Generative Pretrained Transformer 3 (GPT-3), GMLS & Hochschule, Künstliche Intelligenz (KI / AI), LehrerIn, Textgeneratoren-Verbot, Unterricht |
Tagcloud
Anderswo finden
Volltext dieses Dokuments
![]() | Generative AI without guardrails can harm learning: Artikel als Volltext ( : , 1124 kByte; : ) |
Anderswo suchen 
Beat und dieser wissenschaftliche Zeitschriftenartikel
Beat hat Dieser wissenschaftliche Zeitschriftenartikel erst in den letzten 6 Monaten in Biblionetz aufgenommen. Er hat Dieser wissenschaftliche Zeitschriftenartikel einmalig erfasst und bisher nicht mehr bearbeitet. Beat besitzt kein physisches, aber ein digitales Exemplar. Eine digitale Version ist auf dem Internet verfügbar (s.o.). Es gibt bisher nur wenige Objekte im Biblionetz, die dieses Werk zitieren.


Chat-GPT
Generative Machine-Learning-Systeme (GMLS)
Generative Pretrained Transformer 4 (GPT-4)
GMLS als Abkürzung
GMLS als Tutor:in
Mathematik
Produktivität
Schule
, 1124 kByte;
)
Biblionetz-History