Zusammenfassungen
After the San Francisco start-up OpenAI released a new version of ChatGPT in March, more than 1,000 technology leaders and researchers signed an open letter calling for a six-month moratorium on the development of new systems because A.I. technologies pose “profound risks to society and humanity.”
Von Cade Metz im Text «The Godfather of A.I.» Leaves Google and Warns of Danger Ahead (2023) Das wirklich Neuartige am KI-Problem ist: Dieses
Wettrüsten läuft komplett im privaten Sektor ab. Es
sind Unternehmen, die gerade diese neuen KIProgramme
veröffentlichen – und es sind Privatpersonen,
die sie nutzen und gegebenenfalls missbrauchen.
Deswegen brachte Ende März das vom
KI-Forscher Max Tegmark initiierte Future of Life
Institute die Idee eines freiwilligen Entwicklungsstopps
für jede KI auf, die stärker ist als GPT-4. Zahlreiche
wichtige Forscherinnen und Unternehmensführer
haben das unterschrieben. Die Entwicklung
soll für ein halbes Jahr gestoppt werden, um erst mal
die Risiken zu evaluieren.
Von Martin Vetterli im Text «Jeder muss ein Picasso werden» (2023) Andere schauen weiter in die Zukunft. Sie warnen davor, was passieren könnte, wenn KI in der aktuellen Geschwindigkeit weiterentwickelt wird. Dann könnte sie aus deren Sicht genauso intelligent werden wie Menschen oder sogar noch intelligenter. Artificial general intelligence (AGI), nennen Forscher das, manche sprechen auch von starker KI oder von Superintelligenz.
Eine solche Intelligenz könnte uns Menschen "irgendwann überflügeln, überflüssig machen und ersetzen." Das schrieb jedenfalls eine Gruppe KI-Wissenschaftler und Techpromis vergangene Woche in einem offenen Brief. Sie forderten deshalb, entsprechende Systeme erst mal nicht weiterzuentwickeln, sondern stattdessen eine sechsmonatige Pause einzulegen. In dieser Pause sollten Sicherheitsmaßnahmen entwickelt werden, um sicherzustellen, dass eine eventuelle Superintelligenz der Menschheit bei der Lösung ihrer Probleme hilft – statt außer Kontrolle zu geraten und uns zu schaden.
Von Eva Wolfangel im Text Wie nah sind wir an der Superintelligenz? (2023) Bemerkungen
So gut ich den Vorschlag finde: Ich glaube nicht, dass
ein derartiges Moratorium tragen würde. Der Vorschlag
ist unrealistisch. Entweder würde ein Unternehmen
ausscheren – oder ein ganzer Staat. Denken
Sie nur, wir würden warten, während andere Länder
weitermachen.
Von Martin Vetterli im Text «Jeder muss ein Picasso werden» (2023) Es geht darum, Öffentlichkeit und Politik auf das Problem aufmerksam zu machen. Die KI-Revolution geht in rasendem Tempo voran. Wir brauchen aber Zeit, um zu verstehen, was da passiert und um Regeln aufstellen zu können. Vielleicht können wir die Entwicklung wenigstens etwas verlangsamen.
Von Yuval Noah Harari im Text «Künstliche Intelligenz ist gefährlicher als der Klimawandel» (2023) Leider absorbiert der offene Brief sehr viel Aufmerksamkeit, die bei anderen Fragen der KI-Debatte besser investiert wäre. Richtig ist, dass heute wohl niemand weiß, wie man extrem leistungsfähige KI-Systeme so trainieren kann, dass sie in jedem Fall zuverlässig, hilfreich, ehrlich und harmlos sind. Eine Pause beim Training von KI hilft diesem Ziel allerdings nicht. Allein schon, weil sich ein solches Moratorium nicht global durchsetzen ließe und die geforderten Regulierungen nicht innerhalb von nur sechs Monaten eingeführt werden könnten. Ich bin überzeugt, dass es eine schrittweise Weiterentwicklung von Technologien und parallel dazu die Anwendung und Anpassung von Kontrollmechanismen braucht.
Von Urs Gasser im Text «Eine Pause beim Training von Künstlicher Intelligenz hilft nicht» (2023) Leider absorbiert der offene Brief sehr viel Aufmerksamkeit, die bei anderen Fragen der KI-Debatte besser investiertwäre. Richtig ist, dass heute wohl niemand weiß, wie man extrem leistungsfähige KI-Systeme so trainieren kann, dass siein jedem Fall zuverlässig, hilfreich, ehrlich und harmlos sind. Eine Pause beim Training von KI hilft diesem Ziel allerdings
Andreas Heddergott / TUM
nicht. Allein schon, weil sich ein solches Moratorium nicht global durchsetzen ließe und die geforderten Regulierungennicht innerhalb von nur sechs Monaten eingeführt werden könnten. Ich bin überzeugt, dass es eine schrittweiseWeiterentwicklung von Technologien und parallel dazu die Anwendung und Anpassung von Kontrollmechanismenbraucht.
Von Urs Gasser im Text «Eine Pause beim Training von Künstlicher Intelligenz hilft nicht» (2023) Dieses Positionspapier erwähnt ...
Dieses Positionspapier erwähnt vermutlich nicht ...
Nicht erwähnte Begriffe | Bildung, Chat-GPT, Generative Pretrained Transformer 3 (GPT-3), GMLS & Bildung, Intelligenz |
Tagcloud
Vorträge von Beat mit Bezug
Zitationsgraph
Zeitleiste
9 Erwähnungen
- Pausing AI Developments Isn't Enough. We Need to Shut it All Down (Eliezer Yudkowsky) (2023)
- The ChatGPT King Isn’t Worried, but He Knows You Might Be (Cade Metz) (2023)
- «Eine Pause beim Training von Künstlicher Intelligenz hilft nicht» (Urs Gasser) (2023)
- Wie nah sind wir an der Superintelligenz? (Eva Wolfangel) (2023)
- «Künstliche Intelligenz ist gefährlicher als der Klimawandel» (Yuval Harari, Rico Bandle) (2023)
- «The Godfather of A.I.» Leaves Google and Warns of Danger Ahead (Cade Metz) (2023)
- «Jeder muss ein Picasso werden» (Martin Vetterli, Hannes Grassegger) (2023)
- c't KI-Praxis (2023)
- Systemsprenger (Andrea Trinkwalder) (2023)
- Im Silicon Valley regiert der effektive Altruismus (Ruth Falterer) (2023)
Volltext dieses Dokuments
Pause Giant AI Experiments: Artikel als Volltext (: , 225 kByte; : ) |
Anderswo suchen
Beat und dieses Positionspapier
Beat hat Dieses Positionspapier während seiner Zeit am Institut für Medien und Schule (IMS) ins Biblionetz aufgenommen. Beat besitzt kein physisches, aber ein digitales Exemplar. Eine digitale Version ist auf dem Internet verfügbar (s.o.). Beat hat Dieses Positionspapier auch schon in Vorträgen erwähnt.