Allgemeine künstliche Intelligenz (AGI) könnte zu einem Weltuntergang führen
BiblioMap
Bemerkungen
Der Begriff
künstliche Intelligenz war schon vor 50 Jahren
ein Werbemittel, um Forschungsgeld zu bekommen.
Von Katharina Zweig im Text Können wir künstlicher Intelligenz vertrauen, Frau Zweig? (2023) Übermässige
Angst vor solchen existenziellen
Risiken lenkt aber von
realen Gefahren ab, die vom
Missbrauch der Technologie
ausgehen.
Von Andreas Krause im Text «Angstmacherei ist nicht der Weg» (2023) auf Seite 36Bei den heutigen Fähigkeiten der Modelle mache ich mir noch keine Sorgen. Aber wenn die Modelle leistungsfähiger werden, dann mache ich mir Sorgen, ja.
Von Sam Altman im Text «Wie erkennen wir, wenn ein System wie GPT die Welt versteht?» (2023) Wo waren diese Leute denn in den letzten
zehn Jahren? Und hat, wer da jetzt mahnt, nicht
auch ein Interesse daran, die Fähigkeiten von KI
zu überhöhen?
Von Katharina Zweig im Text Können wir künstlicher Intelligenz vertrauen, Frau Zweig? (2023) Der Übersetzer meines Buches Ein Algorithmus
hat kein Taktgefühl hat die KI awkward
intelligence
genannt, seltsame Intelligenz. Das finde
ich ganz, ganz großartig.
Von Katharina Zweig im Text Können wir künstlicher Intelligenz vertrauen, Frau Zweig? (2023) Many other experts, including many of his students and colleagues, say this threat is hypothetical. But Dr. Hinton believes that the race between Google and Microsoft and others will escalate into a global race that will not stop without some sort of global regulation.
Von Cade Metz im Text «The Godfather of A.I.» Leaves Google and Warns of Danger Ahead (2023) Das Interessante ist aber nicht der Satz an sich, aus dem Silicon Valley und von anderswo gab es in den vergangenen Monaten immer wieder Warnungen vor KI. Das Interessante ist, wer den Aufruf unterschrieben hat, nämlich die Chefriegen fast aller führenden KI-Unternehmen.
Von Jannis Brühl im Text Was hinter der lauten Warnung vor der KI-Apokalypse steckt (2023) Eine KI kann durch Versuch und Irrtum ihre Fähigkeit optimieren, Menschen zu manipulieren. Daraus kann ein sehr überzeugender und inspirierender Text entstehen, der zur Grundlage eines neuen Kults oder einer neuen Religion wird – inklusive Sextabus und politische Ansichten.
Von Yuval Noah Harari im Text «Künstliche Intelligenz ist gefährlicher als der Klimawandel» (2023) Mit einer Machtübernahme durch eine superintelligente KI, die uns beherrschen will,
müssen wir aber nicht rechnen. Ein KI-System will nämlich gar nichts, genau wie alle Computersysteme.
Diese Systeme automatisieren Prozesse, aber sie verfolgen keine Ziele, oder
zumindest nur in dem Sinne, dass sie Ziele verfolgen, die wir ihnen eingepflanzt haben.
Von Vincent C. Müller im Text Wir müssen gestern beginnen (2023) Large language models are our second contact with A.I. We cannot afford to lose again. But on what basis should webelieve humanity is capable of aligning these new forms of A.I. to our benefit? If we continue with business as usual,the new A.I. capacities will again be used to gain profit and power, even if it inadvertently destroys the foundations ofour society.
Von Yuval Harari, Tristan Harris, Aza Raskin im Text You Can Have the Blue Pill or the Red Pill, and We’re Out of Blue Pills (2023) Dass KI irgendwann unkontrollierbar wird, menschenähnlich klug und unberechenbar, ist die Angst, die
viele haben. Altman versucht nicht, sie zu entkräften. Er schürt sie. KI könnte neue gefährliche Keime
erzeugen, sagt er zum Beispiel. Auch die Beeinflussung von Wahlkämpfen mit gefälschten Fotos habe
Open AI im Blick. Und dann sind da noch die Anspielungen auf die Atombombe.
Von Philipp Bovermann, Jannis Brühl, Andrian Kreye im Text Der Aufstieg des Maschinendenkers (2023) Wir sind tatsächlich gerade mit drei apokalyptischen Szenarien konfrontiert: Die ökologische Krise mit der Klimaerwärmung. Die wachsenden internationalen Spannungen mit der russischen Invasion in der Ukraine und der Lage in Ostasien, die zu einem weiteren Weltkrieg führen könnten. Und die sich beschleunigende KI-Krise, die innerhalb weniger Jahre die Grundlagen der menschlichen Zivilisation zerstören könnte.
Von Yuval Noah Harari im Text «Künstliche Intelligenz ist gefährlicher als der Klimawandel» (2023) Handeln die Unterzeichner des Briefs also vielleicht gar nicht im Interesse der Menschheit? Ihr Vorstoß, in dem es ums ganz große Ganze - die Zukunft der Menschheit - geht, könnte auch dazu dienen, die kleinteilige Regulierung ihrer Sprachmodelle im Hier und Jetzt abzuwürgen. Beim Besuch von Sam Altman in Europa ging es vergangene Woche darum, allzu strenge Regeln für die Sprachmodelle in der EU zu verhindern.
Von Jannis Brühl im Text Was hinter der lauten Warnung vor der KI-Apokalypse steckt (2023) Down the road, he is worried that future versions of the technology pose a threat to humanity because they often learn unexpected behavior from the vast amounts of data they analyze. This becomes an issue, he said, as individuals and companies allow A.I. systems not only to generate their own computer code but actually run that code on their own. And he fears a day when truly autonomous weapons — those killer robots — become reality.
Von Cade Metz im Text «The Godfather of A.I.» Leaves Google and Warns of Danger Ahead (2023) Andere wie die Computerlinguistin Emily Bender kritisieren die Erzählung von der Apokalypse, wie sie die KI-Unternehmer streuen, als Ablenkungsmanöver. Sie wollten demnach den Fokus auf einen generationenübergreifenden Kampf gegen eine abseitige Gefahr lenken. Darunter leiden Menschen, die schon heute von KI diskriminiert werden. Das geschieht etwa, wenn automatisierte KI-Systeme Vorurteile und Schräglagen aus den Datensätzen übernehmen, aus denen sie lernen.
Von Jannis Brühl im Text Was hinter der lauten Warnung vor der KI-Apokalypse steckt (2023) Das Raunen vom Weltuntergang ist auch eine Marketingstrategie. Wer einer Technologie die Apokalypse
zutraut, macht sie damit vielleicht mächtiger, als sie ist. Die Theorien, dass KI die Menschheit vernichten
könnte, sind in der Wissenschaft vor allem Gedankenexperimente aus der Philosophie. Die sogenannten
Doomer – die Weltuntergangstheoretiker – beanspruchen für sich selbst die absolute Macht über ihre
Technologien. Denn nur die Schöpfer könnten sie verstehen und beherrschen.
Von Philipp Bovermann, Jannis Brühl, Andrian Kreye im Text Der Aufstieg des Maschinendenkers (2023) Angesichts solcher Gedanken höre ich oft Leute sagen: «AGI ist die
größte Gefahr, der die Menschheit heute gegenübersteht! Sie wird die
Welt zerstören!» Aber wenn man sie dann fragt, wie das konkret aussieht,
wie es dazu kommt, reagieren sie ausweichend, die Antworten werden
schwammig, die genaue Gefahr bleibt nebulös. Die KI, so heißt es, könnte
mit allen Rechenressourcen ausbüxen und die ganze Welt in einen riesigen
Computer verwandeln. Da die KI immer leistungsfähiger wird, müssen
die extremsten Szenarien ernsthaft erwogen und entschärft werden. Doch
bevor es so weit ist, kann noch viel schiefgehen.
Von Mustafa Suleyman, Michael Bhaskar im Buch The Coming Wave (2023) im Text Das Dilemma In the beginning was the word. Language is the operating system of human culture. From language emerges myth andlaw, gods and money, art and science, friendships and nations and computer code. A.I.’s new mastery of languagemeans it can now hack and manipulate the operating system of civilization. By gaining mastery of language, A.I. isseizing the master key to civilization, from bank vaults to holy sepulchers.
What would it mean for humans to live in a world where a large percentage of stories, melodies, images, laws, policiesand tools are shaped by nonhuman intelligence, which knows how to exploit with superhuman efficiency theweaknesses, biases and addictions of the human mind — while knowing how to form intimate relationships withhuman beings? In games like chess, no human can hope to beat a computer. What happens when the same thingoccurs in art, politics or religion?
Von Yuval Harari, Tristan Harris, Aza Raskin im Text You Can Have the Blue Pill or the Red Pill, and We’re Out of Blue Pills (2023) What would it mean for humans to live in a world where a large percentage of stories, melodies, images, laws, policiesand tools are shaped by nonhuman intelligence, which knows how to exploit with superhuman efficiency theweaknesses, biases and addictions of the human mind — while knowing how to form intimate relationships withhuman beings? In games like chess, no human can hope to beat a computer. What happens when the same thingoccurs in art, politics or religion?
Vorträge von Beat mit Bezug
Zitationsgraph
Zeitleiste
27 Erwähnungen
- AI risk must be treated as seriously as climate crisis, says Google DeepMind chief (Dan Milmo)
- What do NLP researchers believe? (Julian Michael, Ari Holtzman, Alicia Parrish, Aaron Mueller, Alex Wang, Angelica Chen, Divyam Madaan, Nikita Nangia, Richard Yuanzhe Pang, Jason Phang, Samuel R. Bowman) (2022)
- You Can Have the Blue Pill or the Red Pill, and We’re Out of Blue Pills (Yuval Harari, Tristan Harris, Aza Raskin) (2023)
- Pause Giant AI Experiments - An Open Letter (Yoshua Bengio, Stuart Russell, Elon Musk, Steve Wozniak, Yuval Noah Harari) (2023)
- There is no A.I. (Jaron Lanier) (2023)
- Wir müssen gestern beginnen (Vincent C. Müller) (2023)
- «Künstliche Intelligenz ist gefährlicher als der Klimawandel» (Yuval Harari, Rico Bandle) (2023)
- «Der Mensch ist Steigbügelhalter für etwas Grösseres» (Jürgen Schmidhuber, Alain Zucker) (2023)
- «The Godfather of A.I.» Leaves Google and Warns of Danger Ahead (Cade Metz) (2023)
- Der KI-Visionär hat einen Notknopf (Philipp Bovermann) (2023)
- Sammlung «Krogerus & Tschäppeler» (Mikael Krogerus, Roman Tschäppeler)
- «Jeder muss ein Picasso werden» (Martin Vetterli, Hannes Grassegger) (2023)
- Der Aufstieg des Maschinendenkers (Philipp Bovermann, Jannis Brühl, Andrian Kreye) (2023)
- «Wie erkennen wir, wenn ein System wie GPT die Welt versteht?» (Sam Altman, Jakob von Lindern, Jochen Wegner) (2023)
- Was hinter der lauten Warnung vor der KI-Apokalypse steckt (Jannis Brühl) (2023)
- Hey Siri, vernichte uns! (Jannis Brühl) (2023)
- Künstliche Intelligenz ausser Kontrolle (Ruth Fulterer) (2023)
- ChatGPT bricht der Schule das Rückgrat (Gottfried Böhme) (2023)
- «Angstmacherei ist nicht der Weg» (Andreas Krause, Joachim Laukenmann) (2023)
- «Wer dem KI-Hype verfällt, stärkt die Macht der Big-Tech-Chefs» (Meredith Whittaker, Adrienne Fichter) (2023)
- Können wir künstlicher Intelligenz vertrauen, Frau Zweig? (Katharina A. Zweig, Rudi Novotny, Stefan Schmitt) (2023)
- KI - alles wissen und nichts verstehen (Peter Strasser) (2023)
- Der Mensch wird zur Batterie (Jean-Martin Büttner) (2023)
- The Coming Wave - Technology, Power, and the Twenty-first Century's Greatest Dilemma (Mustafa Suleyman, Michael Bhaskar) (2023)
- 12. Das Dilemma
- Wie klug ist künstliche Intelligenz? - Die 50 wichtigesten Fragen und Antworten (Hans-Martin Bürki-Spycher, Beat Döbeli Honegger, Mascha Kurpicz-Briki, Roman Schister) (2023)
- Apokalypse als Businessmodell (Felix Maschewski, Anna-Verena Nosthoff) (2023)
- Kampf der Schreibmaschinen-Digitalisierung (Beat Döbeli Honegger) (2024)