/ en / Traditional / help

Beats Biblionetz - Aussagen

Allgemeine künstliche Intelligenz (AGI) könnte zu einem Weltuntergang führen

iconBiblioMap Dies ist der Versuch, gewisse Zusammenhänge im Biblionetz graphisch darzustellen. Könnte noch besser werden, aber immerhin ein Anfang!

Diese Grafik ist nur im SVG-Format verfügbar. Dieses Format wird vom verwendeteten Browser offenbar nicht unterstützt.

Diese SVG-Grafik fensterfüllend anzeigen

iconBemerkungen

Katharina ZweigDer Begriff künstliche Intelligenz war schon vor 50 Jahren ein Werbemittel, um Forschungsgeld zu bekommen.
Von Katharina Zweig im Text Können wir künstlicher Intelligenz vertrauen, Frau Zweig? (2023)
Übermässige Angst vor solchen existenziellen Risiken lenkt aber von realen Gefahren ab, die vom Missbrauch der Technologie ausgehen.
Von Andreas Krause im Text «Angstmacherei ist nicht der Weg» (2023) auf Seite  36
Bei den heutigen Fähigkeiten der Modelle mache ich mir noch keine Sorgen. Aber wenn die Modelle leistungsfähiger werden, dann mache ich mir Sorgen, ja.
Von Sam Altman im Text «Wie erkennen wir, wenn ein System wie GPT die Welt versteht?» (2023)
Katharina ZweigWo waren diese Leute denn in den letzten zehn Jahren? Und hat, wer da jetzt mahnt, nicht auch ein Interesse daran, die Fähigkeiten von KI zu überhöhen?
Von Katharina Zweig im Text Können wir künstlicher Intelligenz vertrauen, Frau Zweig? (2023)
Katharina ZweigDer Übersetzer meines Buches Ein Algorithmus hat kein Taktgefühl hat die KI awkward intelligence genannt, seltsame Intelligenz. Das finde ich ganz, ganz großartig.
Von Katharina Zweig im Text Können wir künstlicher Intelligenz vertrauen, Frau Zweig? (2023)
Many other experts, including many of his students and colleagues, say this threat is hypothetical. But Dr. Hinton believes that the race between Google and Microsoft and others will escalate into a global race that will not stop without some sort of global regulation.
Von Cade Metz im Text «The Godfather of A.I.» Leaves Google and Warns of Danger Ahead (2023)
Das Interessante ist aber nicht der Satz an sich, aus dem Silicon Valley und von anderswo gab es in den vergangenen Monaten immer wieder Warnungen vor KI. Das Interessante ist, wer den Aufruf unterschrieben hat, nämlich die Chefriegen fast aller führenden KI-Unternehmen.
Von Jannis Brühl im Text Was hinter der lauten Warnung vor der KI-Apokalypse steckt (2023)
Eine KI kann durch Versuch und Irrtum ihre Fähigkeit optimieren, Menschen zu manipulieren. Daraus kann ein sehr überzeugender und inspirierender Text entstehen, der zur Grundlage eines neuen Kults oder einer neuen Religion wird – inklusive Sextabus und politische Ansichten.
Von Yuval Noah Harari im Text «Künstliche Intelligenz ist gefährlicher als der Klimawandel» (2023)
Mit einer Machtübernahme durch eine superintelligente KI, die uns beherrschen will, müssen wir aber nicht rechnen. Ein KI-System will nämlich gar nichts, genau wie alle Computersysteme. Diese Systeme automatisieren Prozesse, aber sie verfolgen keine Ziele, oder zumindest nur in dem Sinne, dass sie Ziele verfolgen, die wir ihnen eingepflanzt haben.
Von Vincent C. Müller im Text Wir müssen gestern beginnen (2023)
Tristan HarrisLarge language models are our second contact with A.I. We cannot afford to lose again. But on what basis should webelieve humanity is capable of aligning these new forms of A.I. to our benefit? If we continue with business as usual,the new A.I. capacities will again be used to gain profit and power, even if it inadvertently destroys the foundations ofour society.
Von Yuval Harari, Tristan Harris, Aza Raskin im Text You Can Have the Blue Pill or the Red Pill, and We’re Out of Blue Pills (2023)
Dass KI irgendwann unkontrollierbar wird, menschenähnlich klug und unberechenbar, ist die Angst, die viele haben. Altman versucht nicht, sie zu entkräften. Er schürt sie. KI könnte neue gefährliche Keime erzeugen, sagt er zum Beispiel. Auch die Beeinflussung von Wahlkämpfen mit gefälschten Fotos habe Open AI im Blick. Und dann sind da noch die Anspielungen auf die Atombombe.
Von Philipp Bovermann, Jannis Brühl, Andrian Kreye im Text Der Aufstieg des Maschinendenkers (2023)
Wir sind tatsächlich gerade mit drei apokalyptischen Szenarien konfrontiert: Die ökologische Krise mit der Klimaerwärmung. Die wachsenden internationalen Spannungen mit der russischen Invasion in der Ukraine und der Lage in Ostasien, die zu einem weiteren Weltkrieg führen könnten. Und die sich beschleunigende KI-Krise, die innerhalb weniger Jahre die Grundlagen der menschlichen Zivilisation zerstören könnte.
Von Yuval Noah Harari im Text «Künstliche Intelligenz ist gefährlicher als der Klimawandel» (2023)
Handeln die Unterzeichner des Briefs also vielleicht gar nicht im Interesse der Menschheit? Ihr Vorstoß, in dem es ums ganz große Ganze - die Zukunft der Menschheit - geht, könnte auch dazu dienen, die kleinteilige Regulierung ihrer Sprachmodelle im Hier und Jetzt abzuwürgen. Beim Besuch von Sam Altman in Europa ging es vergangene Woche darum, allzu strenge Regeln für die Sprachmodelle in der EU zu verhindern.
Von Jannis Brühl im Text Was hinter der lauten Warnung vor der KI-Apokalypse steckt (2023)
Down the road, he is worried that future versions of the technology pose a threat to humanity because they often learn unexpected behavior from the vast amounts of data they analyze. This becomes an issue, he said, as individuals and companies allow A.I. systems not only to generate their own computer code but actually run that code on their own. And he fears a day when truly autonomous weapons — those killer robots — become reality.
Von Cade Metz im Text «The Godfather of A.I.» Leaves Google and Warns of Danger Ahead (2023)
Andere wie die Computerlinguistin Emily Bender kritisieren die Erzählung von der Apokalypse, wie sie die KI-Unternehmer streuen, als Ablenkungsmanöver. Sie wollten demnach den Fokus auf einen generationenübergreifenden Kampf gegen eine abseitige Gefahr lenken. Darunter leiden Menschen, die schon heute von KI diskriminiert werden. Das geschieht etwa, wenn automatisierte KI-Systeme Vorurteile und Schräglagen aus den Datensätzen übernehmen, aus denen sie lernen.
Von Jannis Brühl im Text Was hinter der lauten Warnung vor der KI-Apokalypse steckt (2023)
Das Raunen vom Weltuntergang ist auch eine Marketingstrategie. Wer einer Technologie die Apokalypse zutraut, macht sie damit vielleicht mächtiger, als sie ist. Die Theorien, dass KI die Menschheit vernichten könnte, sind in der Wissenschaft vor allem Gedankenexperimente aus der Philosophie. Die sogenannten Doomer – die Weltuntergangstheoretiker – beanspruchen für sich selbst die absolute Macht über ihre Technologien. Denn nur die Schöpfer könnten sie verstehen und beherrschen.
Von Philipp Bovermann, Jannis Brühl, Andrian Kreye im Text Der Aufstieg des Maschinendenkers (2023)
The Coming WaveAngesichts solcher Gedanken höre ich oft Leute sagen: «AGI ist die größte Gefahr, der die Menschheit heute gegenübersteht! Sie wird die Welt zerstören!» Aber wenn man sie dann fragt, wie das konkret aussieht, wie es dazu kommt, reagieren sie ausweichend, die Antworten werden schwammig, die genaue Gefahr bleibt nebulös. Die KI, so heißt es, könnte mit allen Rechenressourcen ausbüxen und die ganze Welt in einen riesigen Computer verwandeln. Da die KI immer leistungsfähiger wird, müssen die extremsten Szenarien ernsthaft erwogen und entschärft werden. Doch bevor es so weit ist, kann noch viel schiefgehen.
Von Mustafa Suleyman, Michael Bhaskar im Buch The Coming Wave (2023) im Text Das Dilemma
Tristan HarrisIn the beginning was the word. Language is the operating system of human culture. From language emerges myth andlaw, gods and money, art and science, friendships and nations and computer code. A.I.’s new mastery of languagemeans it can now hack and manipulate the operating system of civilization. By gaining mastery of language, A.I. isseizing the master key to civilization, from bank vaults to holy sepulchers.
What would it mean for humans to live in a world where a large percentage of stories, melodies, images, laws, policiesand tools are shaped by nonhuman intelligence, which knows how to exploit with superhuman efficiency theweaknesses, biases and addictions of the human mind — while knowing how to form intimate relationships withhuman beings? In games like chess, no human can hope to beat a computer. What happens when the same thingoccurs in art, politics or religion?
Von Yuval Harari, Tristan Harris, Aza Raskin im Text You Can Have the Blue Pill or the Red Pill, and We’re Out of Blue Pills (2023)

iconVorträge von Beat mit Bezug

iconZitationsgraph

Diese Grafik ist nur im SVG-Format verfügbar. Dieses Format wird vom verwendeteten Browser offenbar nicht unterstützt.

Diese SVG-Grafik fensterfüllend anzeigen

iconZeitleiste

icon27 Erwähnungen  Dies ist eine nach Erscheinungsjahr geordnete Liste aller im Biblionetz vorhandenen Werke, die das ausgewählte Thema behandeln.

iconAnderswo suchen  Auch im Biblionetz finden Sie nicht alles. Aus diesem Grund bietet das Biblionetz bereits ausgefüllte Suchformulare für verschiedene Suchdienste an. Biblionetztreffer werden dabei ausgeschlossen.

iconBiblionetz-History Dies ist eine graphische Darstellung, wann wie viele Verweise von und zu diesem Objekt ins Biblionetz eingetragen wurden und wie oft die Seite abgerufen wurde.