Allgemeine künstliche Intelligenz (AGI) könnte zu einem Weltuntergang führen
BiblioMap 
Bemerkungen
Der Begriff
künstliche Intelligenz war schon vor 50 Jahren
ein Werbemittel, um Forschungsgeld zu bekommen.Übermässige
Angst vor solchen existenziellen
Risiken lenkt aber von
realen Gefahren ab, die vom
Missbrauch der Technologie
ausgehen.
Von Andreas Krause im Text «Angstmacherei ist nicht der Weg» (2023) auf Seite 36Bei den heutigen Fähigkeiten der Modelle mache ich mir noch keine Sorgen. Aber wenn die Modelle leistungsfähiger werden, dann mache ich mir Sorgen, ja.
Von Sam Altman im Text «Wie erkennen wir, wenn ein System wie GPT die Welt versteht?» (2023)
Wo waren diese Leute denn in den letzten
zehn Jahren? Und hat, wer da jetzt mahnt, nicht
auch ein Interesse daran, die Fähigkeiten von KI
zu überhöhen?
Der Übersetzer meines Buches Ein Algorithmus
hat kein Taktgefühl hat die KI awkward
intelligence
genannt, seltsame Intelligenz. Das finde
ich ganz, ganz großartig.Many other experts, including many of his students and colleagues, say this threat is hypothetical. But Dr. Hinton believes that the race between Google and Microsoft and others will escalate into a global race that will not stop without some sort of global regulation.
Von Cade Metz im Text «The Godfather of A.I.» Leaves Google and Warns of Danger Ahead (2023) Das Interessante ist aber nicht der Satz an sich, aus dem Silicon Valley und von anderswo gab es in den vergangenen Monaten immer wieder Warnungen vor KI. Das Interessante ist, wer den Aufruf unterschrieben hat, nämlich die Chefriegen fast aller führenden KI-Unternehmen.
Von Jannis Brühl im Text Was hinter der lauten Warnung vor der KI-Apokalypse steckt (2023) Eine KI kann durch Versuch und Irrtum ihre Fähigkeit optimieren, Menschen zu manipulieren. Daraus kann ein sehr überzeugender und inspirierender Text entstehen, der zur Grundlage eines neuen Kults oder einer neuen Religion wird – inklusive Sextabus und politische Ansichten.
Von Yuval Noah Harari im Text «Künstliche Intelligenz ist gefährlicher als der Klimawandel» (2023) Mit einer Machtübernahme durch eine superintelligente KI, die uns beherrschen will,
müssen wir aber nicht rechnen. Ein KI-System will nämlich gar nichts, genau wie alle Computersysteme.
Diese Systeme automatisieren Prozesse, aber sie verfolgen keine Ziele, oder
zumindest nur in dem Sinne, dass sie Ziele verfolgen, die wir ihnen eingepflanzt haben.
Von Vincent C. Müller im Text Wir müssen gestern beginnen (2023)
Large language models are our second contact with A.I. We cannot afford to lose again. But on what basis should webelieve humanity is capable of aligning these new forms of A.I. to our benefit? If we continue with business as usual,the new A.I. capacities will again be used to gain profit and power, even if it inadvertently destroys the foundations ofour society.Dass KI irgendwann unkontrollierbar wird, menschenähnlich klug und unberechenbar, ist die Angst, die
viele haben. Altman versucht nicht, sie zu entkräften. Er schürt sie. KI könnte neue gefährliche Keime
erzeugen, sagt er zum Beispiel. Auch die Beeinflussung von Wahlkämpfen mit gefälschten Fotos habe
Open AI im Blick. Und dann sind da noch die Anspielungen auf die Atombombe.
Von Philipp Bovermann, Jannis Brühl, Andrian Kreye im Text Der Aufstieg des Maschinendenkers (2023) Wir sind tatsächlich gerade mit drei apokalyptischen Szenarien konfrontiert: Die ökologische Krise mit der Klimaerwärmung. Die wachsenden internationalen Spannungen mit der russischen Invasion in der Ukraine und der Lage in Ostasien, die zu einem weiteren Weltkrieg führen könnten. Und die sich beschleunigende KI-Krise, die innerhalb weniger Jahre die Grundlagen der menschlichen Zivilisation zerstören könnte.
Von Yuval Noah Harari im Text «Künstliche Intelligenz ist gefährlicher als der Klimawandel» (2023) Handeln die Unterzeichner des Briefs also vielleicht gar nicht im Interesse der Menschheit? Ihr Vorstoß, in dem es ums ganz große Ganze - die Zukunft der Menschheit - geht, könnte auch dazu dienen, die kleinteilige Regulierung ihrer Sprachmodelle im Hier und Jetzt abzuwürgen. Beim Besuch von Sam Altman in Europa ging es vergangene Woche darum, allzu strenge Regeln für die Sprachmodelle in der EU zu verhindern.
Von Jannis Brühl im Text Was hinter der lauten Warnung vor der KI-Apokalypse steckt (2023) Down the road, he is worried that future versions of the technology pose a threat to humanity because they often learn unexpected behavior from the vast amounts of data they analyze. This becomes an issue, he said, as individuals and companies allow A.I. systems not only to generate their own computer code but actually run that code on their own. And he fears a day when truly autonomous weapons — those killer robots — become reality.
Von Cade Metz im Text «The Godfather of A.I.» Leaves Google and Warns of Danger Ahead (2023) Andere wie die Computerlinguistin Emily Bender kritisieren die Erzählung von der Apokalypse, wie sie die KI-Unternehmer streuen, als Ablenkungsmanöver. Sie wollten demnach den Fokus auf einen generationenübergreifenden Kampf gegen eine abseitige Gefahr lenken. Darunter leiden Menschen, die schon heute von KI diskriminiert werden. Das geschieht etwa, wenn automatisierte KI-Systeme Vorurteile und Schräglagen aus den Datensätzen übernehmen, aus denen sie lernen.
Von Jannis Brühl im Text Was hinter der lauten Warnung vor der KI-Apokalypse steckt (2023) Das Raunen vom Weltuntergang ist auch eine Marketingstrategie. Wer einer Technologie die Apokalypse
zutraut, macht sie damit vielleicht mächtiger, als sie ist. Die Theorien, dass KI die Menschheit vernichten
könnte, sind in der Wissenschaft vor allem Gedankenexperimente aus der Philosophie. Die sogenannten
Doomer – die Weltuntergangstheoretiker – beanspruchen für sich selbst die absolute Macht über ihre
Technologien. Denn nur die Schöpfer könnten sie verstehen und beherrschen.
Von Philipp Bovermann, Jannis Brühl, Andrian Kreye im Text Der Aufstieg des Maschinendenkers (2023)
Angesichts solcher Gedanken höre ich oft Leute sagen: «AGI ist die
größte Gefahr, der die Menschheit heute gegenübersteht! Sie wird die
Welt zerstören!» Aber wenn man sie dann fragt, wie das konkret aussieht,
wie es dazu kommt, reagieren sie ausweichend, die Antworten werden
schwammig, die genaue Gefahr bleibt nebulös. Die KI, so heißt es, könnte
mit allen Rechenressourcen ausbüxen und die ganze Welt in einen riesigen
Computer verwandeln. Da die KI immer leistungsfähiger wird, müssen
die extremsten Szenarien ernsthaft erwogen und entschärft werden. Doch
bevor es so weit ist, kann noch viel schiefgehen.
In the beginning was the word. Language is the operating system of human culture. From language emerges myth andlaw, gods and money, art and science, friendships and nations and computer code. A.I.’s new mastery of languagemeans it can now hack and manipulate the operating system of civilization. By gaining mastery of language, A.I. isseizing the master key to civilization, from bank vaults to holy sepulchers.What would it mean for humans to live in a world where a large percentage of stories, melodies, images, laws, policiesand tools are shaped by nonhuman intelligence, which knows how to exploit with superhuman efficiency theweaknesses, biases and addictions of the human mind — while knowing how to form intimate relationships withhuman beings? In games like chess, no human can hope to beat a computer. What happens when the same thingoccurs in art, politics or religion?






30


Biblionetz-History