Künstliche Intelligenz ist ein ungeeigneter Begriff
Erklärung als Video
Bemerkungen
Künstliche Intelligenz ist ein Marketingbegriff
(lacht). Es gibt keine künstliche Intelligenz. Zumindest bis jetzt noch nicht. Ich bevorzuge den Begriff «maschinelles Lernen», so wie die meisten Leute, die daran forschen.
Wir sollten nicht allgemein über KI diskutieren, sondern einzelne Systeme anschauen. Ich gehe doch auch nicht auf eine Baustelle und nenne alles vom Nagel über die Zange bis zum Kran »künstliche Kraft«.
Zunächst mag ich den Begriff »künstliche
Intelligenz« gar nicht. Er wird so inflationär gebraucht.
Letztens hat jemand auf einer Konferenz
seinen Taschenrechner hochgehalten und gesagt,
da sei künstliche Intelligenz drin. Meine Güte! Insofern
bedeutet das Wort nichts. Rein gar nichts!
In the end, whether an application gets labeled AI is heavily influenced by historical usage, marketing, and other factors. We won’t fret about the fact that there’s no consistent definition. That might seem surprising for a book about AI. But recall our overarching message: there’s almost nothing one can say in one breath that applies to all types of AI.
There’s a humorous AI definition that’s worth mentioning, because it reveals an important point: “AI is whatever hasn’t been done yet.” In other words, once an application starts working reliably, it fades into the background and people take it for granted, so it’s no longer thought of as AI. There are many examples: Robot vacuum cleaners like the Roomba. Autopilot in planes. Autocomplete on our phones. Handwriting recognition. Speech recognition. Spam filtering. Spell-check. Yes, there was a time when spell-check was considered a hard problem!
Indeed, some elements of the computer science community have
recently begun to deliberately distance themselves from the term ‘AI’ and revert to using
labels that better describe the types of machine learning and algorithmic developments
that underpin their work (see Jordon in Pretz, 2021). Elsewhere, policymakers and
industry actors are also beginning to turn to alternate terms, such as ‘automated
decision making’ and ‘algorithmic forecasting.’ Such linguistic turns reinforce Emily
Tucker’s (2022, n.p.) assertation that “whatever the merit of the scientific aspirations
originally encompassed by the term ‘artificial intelligence,’ it [has become] a phrase
that now functions in the vernacular primarily to obfuscate, alienate and glamorize.”
Bei Gesprächen in meinem
Umfeld kam eines hervor: Jede und
jeder redet von der künstlichen Intelligenz;
aber nicht alle sprechen vom Gleichen.
Eine gängige Definition lautet: «ein künstliches
System, das eine Aufgabeerledigen
kann, für die normalerweise ein
Mensch notwendig ist.»Sehen Sie, und da ist bereits der Haken: Wozu es einen Menschen braucht, hat sich in den letzten 50 Jahren stark verändert. In den 1960ern brauchte es das menschliche Gehirn, um Kopfrechenaufgaben zu lösen. Dann übernahm der Taschenrechner. Als 1996 ein Computer Schachweltmeister wurde, sprach man von künstlicher Intelligenz. Heute sieht man dies als reine Rechenpower an. Was wir gestern als KI bezeichnet haben, ist es in fünf Jahren nicht mehr. Daher vermeide ich den Begriff nach Möglichkeit, weil er schwammig ist und man alles oder nichts darunter verstehen kann.
Die
üblichen Definitionen des Begriffs
sind so schwammig, dass damit alles
und nichts gemeint sein könnte. Meist
wird künstliche Intelligenz definiert
als die Fähigkeit eines Computers,
eine Tätigkeit auszuführen, «die
normalerweise einen denkenden
Menschen erfordert».
Beim ersten Lesen mag diese Beschreibung
plausibel erscheinen.
Die Digitaltechnik hat sich aber in den
letzten Jahrzehnten so rasant entwickelt,
dass vieles, was vor Kurzem
noch als KI gegolten hätte, heute
vollkommen alltäglich ist. So ist es
nicht lange her, dass ein Taschenrechner,
eine automatische Rechtschreibekorrektur,
ein Routenplaner oder ein
Übersetzungsprogramm für Verblüffung
sorgten und unter die Definition
von KI fielen. Umgekehrt werden bald
auch aktuell gehypte Fähigkeiten des
Computers so alltäglich, dass niemand
mehr behaupten würde, dass es
dafür normalerweise einen denkenden
Menschen bräuchte.
Now that I’m an artificial intelligence expert, I am invited to important meetings called things like ‘International Cooperation on AI’ or the ‘Global Forum on AI for Humanity’. I am asked to comment on articles for Nature such as ‘How artificial intelligence is being used to prevent blindness’. But the artificial intelligence we are peddling, the techniques we are using, simply combine very large datasets and computers. It is a mix of advanced computation and statistics. One of my favourite tricks is to mentally correct these headlines, and so to wonder if a meeting on ‘International Cooperation on Computers and Statistics’ would attract such interest, or whether we would convene a ‘Global Forum on Computers and Statistics for Humanity’. I ask myself whether Nature would be interested in a piece on ‘How computers and statistics are being used to prevent blindness’. Very often, my conclusion is that they would not.
Traditionell ist KI ein Akronym für »künstliche Intelligenz« (im Englischen AI für »Artificial Intelligence«). Doch wie wir in diesem Kapitel gesehen haben, wäre es vielleicht sinnvoller, AI als Akronym für »Alien Intelligence« zu verstehen, für »andersartige Intelligenz«. In dem Maße, wie sich die KI weiterentwickelt, wird sie weniger künstlich (in dem Sinne, dass sie von menschlicher Gestaltung abhängt) und andersartiger. Zudem sei darauf verwiesen, dass KI häufig anhand des Maßstabs »menschlicher Intelligenz« definiert und bewertet wird, und es wird viel darüber diskutiert, wann wir damit rechnen können, dass KI »menschliche Intelligenz« erreichen wird. Die Verwendung dieses Maßstabs ist jedoch äußerst verwirrend. Es ist so, als würde man Flugzeuge anhand des Vogelflugs definieren und bewerten. KI bewegt sich nicht auf das Intelligenz-Niveau des Menschen zu. Es handelt sich um die Entwicklung eines völlig anderen Typs von Intelligenz.Um die schwammige Verwendung von künstlicher Intelligenz im gesellschaftlichen Diskurs zu charakterisieren, schlage ich den Begriff der Zeitgeist-KI vor. In dem Zusammenhang kann der Begriff KI dann von Big Data und Statistik über Software, IT, Digitalisierung, Algorithmen, Roboter, Apps und IKT bis hin zum Internet in etwa alles bedeuten. Auch im politischen Diskurs wird pauschal von „künstlicher Intelligenz“ gesprochen, egal, ob es um selbstfahrende Autos, Roboterhunde, automatisierte Entscheidungssysteme, Klimamodelle, automatisierte Arbeitsmarktvermittlungssysteme, Tischreservierungssysteme oder smarte Verkehrsleitsysteme geht; beizeiten werden auch traditionelle Informatikprodukte mit dem Label versehen. Alles ist „KI“, obwohl in alledem wenig bis keine künstliche Intelligenz steckt. In einem aktuellen Bericht zum Stand von KI in der öffentlichen Verwaltung heißt es etwa, „dass oftmals Projekte als KI-basiert bezeichnet würden, jedoch de facto konventionelle IKT-Anwendungen nutzen“. Aber auch in Wissenschaft und Wirtschaft ist jenes schwammige Verständnis anzutreffen. Um eine reflektierte gesellschaftliche Auseinandersetzung mit künstlicher Intelligenz zu ermöglichen, muss dieses Verständnis expliziert, mithin aufgelöst werden.
Das eine Problem aus meiner Sicht ist, dass künstliche Intelligenz nicht wirklich gut definiert ist. Natürlich, ein Wissenschaftler sagt immer, ein Begriff ist nicht gut definiert. Aber die meisten Leute, die man fragt, sagen, künstliche Intelligenz ist das, was normalerweise ein Mensch macht. Und bei der raschen technischen Entwicklung ist das extrem unterschiedlich. Ob man vor 10 Jahren, 20 Jahren oder heute schaut. Das finde ich noch problematisch. Vor 30, 40 Jahren, als der Taschenrechner kam, wäre ein Taschenrechner künstliche Intelligenz gewesen. Damals musste noch ein Mensch rechnen. Heute würde man sagen, das ist das Übersetzungsprogramm, das normalerweise ein Mensch machen würde. Bis vor kurzem schon. Das ist der eine Grund, weshalb es seltsam ist, das als Begriff zu verwenden. Ein anderes Problem, das ich sehe, ist, bei künstlicher Intelligenz schwingt immer der Vergleich mit dem Menschen mit. Man kann nicht künstlich sagen, ohne auch an natürlich zu denken. Das ist gerade im Bildungsbereich problematisch. Weil vielleicht wollen wir ja gar nichts vergleichen oder ersetzen. Und wenn wir aber im Begriff schon den Vergleich drin haben, dann hilft uns das nicht weiter. Der dritte Grund ist, das, was gewisse Leute als KI bezeichnen, wird bald so allgegenwärtig sein, dass es eigentlich keinen Unterschied mehr macht, ob ich jetzt sage Computer oder KI. Und wenn es nicht unterscheidbar ist, brauche ich den Begriff nicht mehr.Instead of using the terms “Artificial intelligence, “AI,” and “machine learning,” the Privacy Center will:
- Be as specific as possible about what the technology in question is and how it works. For example, instead of saying “face recognition uses artificial intelligence,” we might say something like “tech companies use massive data sets to train algorithms to match images of human faces.” Where a complete explanation is disruptive to our larger argument, or beyond our expertise, we will point readers to external sources.
- Identify any obstacles to our own understanding of a technology that result from failures of corporate or government transparency. For example, instead of saying “employers are using AI to analyze workers’ emotions” we might say “employers are using software advertised as having the ability to label workers’ emotions based on images of them from photographs and video. We don’t know how the labeling process works because the companies that sell these products claim that information as a trade secret.”
- Name the corporations responsible for creating and spreading the technological product. For example, instead of saying “states use AI to verify the identities of people applying for unemployment benefits,” we might say “states are contracting with a company called ID.me, which uses Amazon Rekognition, a face matching algorithm, to verify the identities of people applying for unemployment benefits.”
- Attribute agency to the human actors building and using the technology, never to the technology itself. This needn’t always require excessive verbiage. For example, we might substitute “machine training,” which sounds like something a person does with a machine, for “machine learning” which sounds like a computer doing something on its own.
We don’t yet know exactly what will happen to our thinking and writing without these crutches, but finding out is part of the point.
2 Vorträge von Beat mit Bezug
- Wenn ChatGPT in der Lehrer:innenbildung mitredet
(Video des Referats)
Tag der Lehre der PHZH, 01.02.2024

- Antworten auf Knopfdruck?
Mitarbeitendenklausur der PHSZ, 19.02.2024




17 

Biblionetz-History