How Predictive AI Goes Wrong
Arvind Narayanan, Sayash Kapoor
Zu finden in: AI Snake Oil, 2024
Diese Seite wurde seit mehr als 11 Monaten inhaltlich nicht mehr aktualisiert.
Unter Umständen ist sie nicht mehr aktuell.
Zusammenfassungen
Chapter 2 is about automated decision-making, which is one area where AI, specifically predictive AI, is increasingly used: predicting who will commit a crime, who will drop out of school, and so forth. We’ll look at many examples of systems that have failed and caused great harm. In our research, we’ve identified a recurring set of reasons these failures keep happening—reasons that are intrinsic to the use of predictive logic in these high-impact systems. We’ll end the chapter by asking if it is possible to reimagine decision-making without predictive AI, and we’ll discuss what sorts of organizational and cultural adaptations we’ll need in order to embrace the unpredictability inherent to consequential decisions.
Anderswo suchen 
Beat und dieses Kapitel
Beat hat Dieses Kapitel während seiner Zeit am Institut für Medien und Schule (IMS) ins Biblionetz aufgenommen. Er hat Dieses Kapitel einmalig erfasst und bisher nicht mehr bearbeitet. Beat besitzt weder ein physisches noch ein digitales Exemplar. Aufgrund der wenigen Einträge im Biblionetz scheint er es nicht wirklich gelesen zu haben. Es gibt bisher auch nur wenige Objekte im Biblionetz, die dieses Werk zitieren.

Biblionetz-History