/ en / Traditional / help

Beats Biblionetz - Texte

Pause Giant AI Experiments

An Open Letter
Yoshua Bengio, Stuart Russell, Elon Musk, Steve Wozniak, Yuval Noah Harari
Publikationsdatum:
Erste Seite des Textes (PDF-Thumbnail)

iconZusammenfassungen

After the San Francisco start-up OpenAI released a new version of ChatGPT in March, more than 1,000 technology leaders and researchers signed an open letter calling for a six-month moratorium on the development of new systems because A.I. technologies pose “profound risks to society and humanity.”
Von Cade Metz im Text «The Godfather of A.I.» Leaves Google and Warns of Danger Ahead (2023)
Martin VetterliDas wirklich Neuartige am KI-Problem ist: Dieses Wettrüsten läuft komplett im privaten Sektor ab. Es sind Unternehmen, die gerade diese neuen KIProgramme veröffentlichen – und es sind Privatpersonen, die sie nutzen und gegebenenfalls missbrauchen. Deswegen brachte Ende März das vom KI-Forscher Max Tegmark initiierte Future of Life Institute die Idee eines freiwilligen Entwicklungsstopps für jede KI auf, die stärker ist als GPT-4. Zahlreiche wichtige Forscherinnen und Unternehmensführer haben das unterschrieben. Die Entwicklung soll für ein halbes Jahr gestoppt werden, um erst mal die Risiken zu evaluieren.
Von Martin Vetterli im Text «Jeder muss ein Picasso werden» (2023)
Andere schauen weiter in die Zukunft. Sie warnen davor, was passieren könnte, wenn KI in der aktuellen Geschwindigkeit weiterentwickelt wird. Dann könnte sie aus deren Sicht genauso intelligent werden wie Menschen oder sogar noch intelligenter. Artificial general intelligence (AGI), nennen Forscher das, manche sprechen auch von starker KI oder von Superintelligenz. Eine solche Intelligenz könnte uns Menschen "irgendwann überflügeln, überflüssig machen und ersetzen." Das schrieb jedenfalls eine Gruppe KI-Wissenschaftler und Techpromis vergangene Woche in einem offenen Brief. Sie forderten deshalb, entsprechende Systeme erst mal nicht weiterzuentwickeln, sondern stattdessen eine sechsmonatige Pause einzulegen. In dieser Pause sollten Sicherheitsmaßnahmen entwickelt werden, um sicherzustellen, dass eine eventuelle Superintelligenz der Menschheit bei der Lösung ihrer Probleme hilft – statt außer Kontrolle zu geraten und uns zu schaden.
Von Eva Wolfangel im Text Wie nah sind wir an der Superintelligenz? (2023)

iconBemerkungen

Martin VetterliSo gut ich den Vorschlag finde: Ich glaube nicht, dass ein derartiges Moratorium tragen würde. Der Vorschlag ist unrealistisch. Entweder würde ein Unternehmen ausscheren – oder ein ganzer Staat. Denken Sie nur, wir würden warten, während andere Länder weitermachen.
Von Martin Vetterli im Text «Jeder muss ein Picasso werden» (2023)
Es geht darum, Öffentlichkeit und Politik auf das Problem aufmerksam zu machen. Die KI-Revolution geht in rasendem Tempo voran. Wir brauchen aber Zeit, um zu verstehen, was da passiert und um Regeln aufstellen zu können. Vielleicht können wir die Entwicklung wenigstens etwas verlangsamen.
Von Yuval Noah Harari im Text «Künstliche Intelligenz ist gefährlicher als der Klimawandel» (2023)
Leider absorbiert der offene Brief sehr viel Aufmerksamkeit, die bei anderen Fragen der KI-Debatte besser investiert wäre. Richtig ist, dass heute wohl niemand weiß, wie man extrem leistungsfähige KI-Systeme so trainieren kann, dass sie in jedem Fall zuverlässig, hilfreich, ehrlich und harmlos sind. Eine Pause beim Training von KI hilft diesem Ziel allerdings nicht. Allein schon, weil sich ein solches Moratorium nicht global durchsetzen ließe und die geforderten Regulierungen nicht innerhalb von nur sechs Monaten eingeführt werden könnten. Ich bin überzeugt, dass es eine schrittweise Weiterentwicklung von Technologien und parallel dazu die Anwendung und Anpassung von Kontrollmechanismen braucht.
Von Urs Gasser im Text «Eine Pause beim Training von Künstlicher Intelligenz hilft nicht» (2023)
Leider absorbiert der offene Brief sehr viel Aufmerksamkeit, die bei anderen Fragen der KI-Debatte besser investiertwäre. Richtig ist, dass heute wohl niemand weiß, wie man extrem leistungsfähige KI-Systeme so trainieren kann, dass siein jedem Fall zuverlässig, hilfreich, ehrlich und harmlos sind. Eine Pause beim Training von KI hilft diesem Ziel allerdings Andreas Heddergott / TUM nicht. Allein schon, weil sich ein solches Moratorium nicht global durchsetzen ließe und die geforderten Regulierungennicht innerhalb von nur sechs Monaten eingeführt werden könnten. Ich bin überzeugt, dass es eine schrittweiseWeiterentwicklung von Technologien und parallel dazu die Anwendung und Anpassung von Kontrollmechanismenbraucht.
Von Urs Gasser im Text «Eine Pause beim Training von Künstlicher Intelligenz hilft nicht» (2023)

iconDieses Positionspapier erwähnt ...


Personen
KB IB clear
Sam Altman , Emily M. Bender , Brian Christian , Timnit Gebru , Angelina McMillan-Major , Stuart Russell , Shmargaret Shmitchell , Max Tegmark

Aussagen
KB IB clear
Allgemeine künstliche Intelligenz (AGI) könnte zu einem Weltuntergang führen
Generative Machine-Learning-Systeme erleichtern das Generieren von Fake-News massiv

Begriffe
KB IB clear
AGI , deep learning , Digitalisierung , Generative Machine-Learning-Systeme (GMLS)computer-generated text , Generative Pretrained Transformer 4 (GPT-4) , Gesellschaftsociety , Künstliche Intelligenz (KI / AI)artificial intelligence , machine learning , Technologietechnology
icon
Bücher
Jahr  Umschlag Titel Abrufe IBOBKBLB
2017  local  Life 3.0 (Max Tegmark) 3, 8, 9, 4, 10, 8, 2, 1, 8, 3, 7, 3 19653506
2020 local  Human Compatible (Stuart Russell) 6, 4, 3, 10, 2, 5, 11, 10, 1, 2, 8, 3 91333139
2020 local  The Alignment Problem (Brian Christian) 1, 1, 3, 3, 5, 8, 7, 4, 1, 3, 7, 4 325496
icon
Texte
Jahr  Umschlag Titel Abrufe IBOBKBLB
2021 local web  On the Dangers of Stochastic Parrots (Emily M. Bender, Timnit Gebru, Angelina McMillan-Major, Shmargaret Shmitchell) 3, 6, 1, 6, 2, 7, 12, 8, 3, 2, 9, 5 38245133

iconDieses Positionspapier erwähnt vermutlich nicht ... Eine statistisch erstelle Liste von nicht erwähnten (oder zumindest nicht erfassten) Begriffen, die aufgrund der erwähnten Begriffe eine hohe Wahrscheinlichkeit aufweisen, erwähnt zu werden.

iconTagcloud

iconVorträge von Beat mit Bezug

  • ChatGPT - Refresher

    Dozierenden-Klausur PHSZ, Goldau, 26.06.2023

iconZitationsgraph

Diese Grafik ist nur im SVG-Format verfügbar. Dieses Format wird vom verwendeteten Browser offenbar nicht unterstützt.

Diese SVG-Grafik fensterfüllend anzeigen

iconZeitleiste

iconErwähnungen  Dies ist eine nach Erscheinungsjahr geordnete Liste aller im Biblionetz vorhandenen Werke, die das ausgewählte Thema behandeln.

iconVolltext dieses Dokuments

Auf dem WWW Pause Giant AI Experiments: Artikel als Volltext (lokal: PDF, 225 kByte; WWW: Link OK )

iconAnderswo suchen  Auch im Biblionetz finden Sie nicht alles. Aus diesem Grund bietet das Biblionetz bereits ausgefüllte Suchformulare für verschiedene Suchdienste an. Biblionetztreffer werden dabei ausgeschlossen.

iconBeat und dieses Positionspapier

Beat hat Dieses Positionspapier während seiner Zeit am Institut für Medien und Schule (IMS) ins Biblionetz aufgenommen. Beat besitzt kein physisches, aber ein digitales Exemplar. Eine digitale Version ist auf dem Internet verfügbar (s.o.). Beat hat Dieses Positionspapier auch schon in Vorträgen erwähnt.

iconBiblionetz-History Dies ist eine graphische Darstellung, wann wie viele Verweise von und zu diesem Objekt ins Biblionetz eingetragen wurden und wie oft die Seite abgerufen wurde.