Allgemeine künstliche Intelligenz (AGI) könnte zu einem Weltuntergang führen
BiblioMap 
Bemerkungen

Übermässige
Angst vor solchen existenziellen
Risiken lenkt aber von
realen Gefahren ab, die vom
Missbrauch der Technologie
ausgehen.
Von Andreas Krause im Text «Angstmacherei ist nicht der Weg» (2023) auf Seite 36Bei den heutigen Fähigkeiten der Modelle mache ich mir noch keine Sorgen. Aber wenn die Modelle leistungsfähiger werden, dann mache ich mir Sorgen, ja.
Von Sam Altman im Text «Wie erkennen wir, wenn ein System wie GPT die Welt versteht?» (2023) 

Many other experts, including many of his students and colleagues, say this threat is hypothetical. But Dr. Hinton believes that the race between Google and Microsoft and others will escalate into a global race that will not stop without some sort of global regulation.
Von Cade Metz im Text «The Godfather of A.I.» Leaves Google and Warns of Danger Ahead (2023) Das Interessante ist aber nicht der Satz an sich, aus dem Silicon Valley und von anderswo gab es in den vergangenen Monaten immer wieder Warnungen vor KI. Das Interessante ist, wer den Aufruf unterschrieben hat, nämlich die Chefriegen fast aller führenden KI-Unternehmen.
Von Jannis Brühl im Text Was hinter der lauten Warnung vor der KI-Apokalypse steckt (2023) Eine KI kann durch Versuch und Irrtum ihre Fähigkeit optimieren, Menschen zu manipulieren. Daraus kann ein sehr überzeugender und inspirierender Text entstehen, der zur Grundlage eines neuen Kults oder einer neuen Religion wird – inklusive Sextabus und politische Ansichten.
Von Yuval Noah Harari im Text «Künstliche Intelligenz ist gefährlicher als der Klimawandel» (2023) Mit einer Machtübernahme durch eine superintelligente KI, die uns beherrschen will,
müssen wir aber nicht rechnen. Ein KI-System will nämlich gar nichts, genau wie alle Computersysteme.
Diese Systeme automatisieren Prozesse, aber sie verfolgen keine Ziele, oder
zumindest nur in dem Sinne, dass sie Ziele verfolgen, die wir ihnen eingepflanzt haben.
Von Vincent C. Müller im Text Wir müssen gestern beginnen (2023) 
Dass KI irgendwann unkontrollierbar wird, menschenähnlich klug und unberechenbar, ist die Angst, die
viele haben. Altman versucht nicht, sie zu entkräften. Er schürt sie. KI könnte neue gefährliche Keime
erzeugen, sagt er zum Beispiel. Auch die Beeinflussung von Wahlkämpfen mit gefälschten Fotos habe
Open AI im Blick. Und dann sind da noch die Anspielungen auf die Atombombe.
Von Philipp Bovermann, Jannis Brühl, Andrian Kreye im Text Der Aufstieg des Maschinendenkers (2023) Wir sind tatsächlich gerade mit drei apokalyptischen Szenarien konfrontiert: Die ökologische Krise mit der Klimaerwärmung. Die wachsenden internationalen Spannungen mit der russischen Invasion in der Ukraine und der Lage in Ostasien, die zu einem weiteren Weltkrieg führen könnten. Und die sich beschleunigende KI-Krise, die innerhalb weniger Jahre die Grundlagen der menschlichen Zivilisation zerstören könnte.
Von Yuval Noah Harari im Text «Künstliche Intelligenz ist gefährlicher als der Klimawandel» (2023) Handeln die Unterzeichner des Briefs also vielleicht gar nicht im Interesse der Menschheit? Ihr Vorstoß, in dem es ums ganz große Ganze - die Zukunft der Menschheit - geht, könnte auch dazu dienen, die kleinteilige Regulierung ihrer Sprachmodelle im Hier und Jetzt abzuwürgen. Beim Besuch von Sam Altman in Europa ging es vergangene Woche darum, allzu strenge Regeln für die Sprachmodelle in der EU zu verhindern.
Von Jannis Brühl im Text Was hinter der lauten Warnung vor der KI-Apokalypse steckt (2023) Down the road, he is worried that future versions of the technology pose a threat to humanity because they often learn unexpected behavior from the vast amounts of data they analyze. This becomes an issue, he said, as individuals and companies allow A.I. systems not only to generate their own computer code but actually run that code on their own. And he fears a day when truly autonomous weapons — those killer robots — become reality.
Von Cade Metz im Text «The Godfather of A.I.» Leaves Google and Warns of Danger Ahead (2023) Andere wie die Computerlinguistin Emily Bender kritisieren die Erzählung von der Apokalypse, wie sie die KI-Unternehmer streuen, als Ablenkungsmanöver. Sie wollten demnach den Fokus auf einen generationenübergreifenden Kampf gegen eine abseitige Gefahr lenken. Darunter leiden Menschen, die schon heute von KI diskriminiert werden. Das geschieht etwa, wenn automatisierte KI-Systeme Vorurteile und Schräglagen aus den Datensätzen übernehmen, aus denen sie lernen.
Von Jannis Brühl im Text Was hinter der lauten Warnung vor der KI-Apokalypse steckt (2023) Das Raunen vom Weltuntergang ist auch eine Marketingstrategie. Wer einer Technologie die Apokalypse
zutraut, macht sie damit vielleicht mächtiger, als sie ist. Die Theorien, dass KI die Menschheit vernichten
könnte, sind in der Wissenschaft vor allem Gedankenexperimente aus der Philosophie. Die sogenannten
Doomer – die Weltuntergangstheoretiker – beanspruchen für sich selbst die absolute Macht über ihre
Technologien. Denn nur die Schöpfer könnten sie verstehen und beherrschen.
Von Philipp Bovermann, Jannis Brühl, Andrian Kreye im Text Der Aufstieg des Maschinendenkers (2023) 

What would it mean for humans to live in a world where a large percentage of stories, melodies, images, laws, policiesand tools are shaped by nonhuman intelligence, which knows how to exploit with superhuman efficiency theweaknesses, biases and addictions of the human mind — while knowing how to form intimate relationships withhuman beings? In games like chess, no human can hope to beat a computer. What happens when the same thingoccurs in art, politics or religion?
Vorträge von Beat mit Bezug
Zitationsgraph
Zitationsgraph (Beta-Test mit vis.js)
Zeitleiste
27 Erwähnungen 
- AI risk must be treated as seriously as climate crisis, says Google DeepMind chief (Dan Milmo)
- What do NLP researchers believe? (Julian Michael, Ari Holtzman, Alicia Parrish, Aaron Mueller, Alex Wang, Angelica Chen, Divyam Madaan, Nikita Nangia, Richard Yuanzhe Pang, Jason Phang, Samuel R. Bowman) (2022)
- You Can Have the Blue Pill or the Red Pill, and We’re Out of Blue Pills (Yuval Harari, Tristan Harris, Aza Raskin) (2023)
- Pause Giant AI Experiments - An Open Letter (Yoshua Bengio, Stuart Russell, Elon Musk, Steve Wozniak, Yuval Noah Harari) (2023)
- There is no A.I. (Jaron Lanier) (2023)
- Wir müssen gestern beginnen (Vincent C. Müller) (2023)
- «Künstliche Intelligenz ist gefährlicher als der Klimawandel» (Yuval Harari, Rico Bandle) (2023)
- «Der Mensch ist Steigbügelhalter für etwas Grösseres» (Jürgen Schmidhuber, Alain Zucker) (2023)
- «The Godfather of A.I.» Leaves Google and Warns of Danger Ahead (Cade Metz) (2023)
- Der KI-Visionär hat einen Notknopf (Philipp Bovermann) (2023)
- Sammlung «Krogerus & Tschäppeler» (Mikael Krogerus, Roman Tschäppeler)
- «Jeder muss ein Picasso werden» (Martin Vetterli, Hannes Grassegger) (2023)
- Der Aufstieg des Maschinendenkers (Philipp Bovermann, Jannis Brühl, Andrian Kreye) (2023)
- «Wie erkennen wir, wenn ein System wie GPT die Welt versteht?» (Sam Altman, Jakob von Lindern, Jochen Wegner) (2023)
- Was hinter der lauten Warnung vor der KI-Apokalypse steckt (Jannis Brühl) (2023)
- Hey Siri, vernichte uns! (Jannis Brühl) (2023)
- Künstliche Intelligenz ausser Kontrolle (Ruth Fulterer) (2023)
- ChatGPT bricht der Schule das Rückgrat (Gottfried Böhme) (2023)
- «Angstmacherei ist nicht der Weg» (Andreas Krause, Joachim Laukenmann) (2023)
- «Wer dem KI-Hype verfällt, stärkt die Macht der Big-Tech-Chefs» (Meredith Whittaker, Adrienne Fichter) (2023)
- Können wir künstlicher Intelligenz vertrauen, Frau Zweig? (Katharina A. Zweig, Rudi Novotny, Stefan Schmitt) (2023)
- KI - alles wissen und nichts verstehen (Peter Strasser) (2023)
- Der Mensch wird zur Batterie (Jean-Martin Büttner) (2023)
- The Coming Wave - Technology, Power, and the Twenty-first Century's Greatest Dilemma (Mustafa Suleyman, Michael Bhaskar) (2023)
- 12. Das Dilemma
- 12. Das Dilemma
- Wie klug ist künstliche Intelligenz? - Die 50 wichtigesten Fragen und Antworten (Hans-Martin Bürki-Spycher, Beat Döbeli Honegger, Mascha Kurpicz-Briki, Roman Schister) (2023)
- Apokalypse als Businessmodell (Felix Maschewski, Anna-Verena Nosthoff) (2023)
- Kampf der Schreibmaschinen-Digitalisierung (Beat Döbeli Honegger) (2024)