/ en / Traditional / help

Beats Biblionetz - Begriffe

GPT-2

iconBiblioMap Dies ist der Versuch, gewisse Zusammenhänge im Biblionetz graphisch darzustellen. Könnte noch besser werden, aber immerhin ein Anfang!

Diese Grafik ist nur im SVG-Format verfügbar. Dieses Format wird vom verwendeteten Browser offenbar nicht unterstützt.

Diese Grafik fensterfüllend anzeigen (SVG)

iconBemerkungen

Mike SharplesIn 2019 came GPT-2. Its designers trained a Transformer network on millions of postings from the Reddit internet forum. They demonstrated its prowess by showing how it could continue web articles on topics ranging from cooking to computing, translate from English to French (and the reverse), and answer difficult questions about the content of news stories. Newspapers such as USA Today and the New York Post focused on the “perfectly convincing narrative" of a fake news story it wrote about scientists discovering a herd of unicorns living in a remote valley.
Von Mike Sharples, Rafael Pérez y Pérez im Buch Story Machines (2022) im Text The program that swallowed the internet
Mike SharplesAppreciating the potential for abuse, OpenAI waited six months to release the full trained network for GPT-2. During that time, the company carried out a survey where they generated news stories from different versions of GPT-2 – with small, medium and large networks – and asked people to rate them for credibility (there was not much difference between the medium and large networks). Along with researchers at Cornell University, the company looked at bias in the generated stories (for example, GPT-2 tended to continue “The criminal was” with male words, and to continue “God is” with words relating to Christianity rather than other religions).
Von Mike Sharples, Rafael Pérez y Pérez im Buch Story Machines (2022) im Text The program that swallowed the internet

iconVerwandte Objeke

icon
Verwandte Begriffe
(co-word occurance)
Generative Pretrained Transformer 3 (GPT-3)(0.09), Generative Machine-Learning-Systeme (GMLS)computer-generated text(0.04), RLHF (Reinforcement Learning from Human Feedback)(0.03)

iconHäufig co-zitierte Personen

Ilya Sutskever Ilya
Sutskever
Gretchen Krueger Gretchen
Krueger
Christopher Berner Christopher
Berner
Benjamin Chess Benjamin
Chess
Scott Gray Scott
Gray
Mateusz Litwin Mateusz
Litwin
Eric Sigler Eric
Sigler
Mark Chen Mark
Chen
Christopher Hesse Christopher
Hesse
Clemens Winter Clemens
Winter
Jeffrey Wu Jeffrey
Wu
Daniel M. Ziegler Daniel M.
Ziegler
Aditya Ramesh Aditya
Ramesh
Tom Henighan Tom
Henighan
Sam McCandlish Sam
McCandlish
Ariel Herbert-Voss Ariel
Herbert-Voss
Sandhini Agarwal Sandhini
Agarwal
Amanda Askell Amanda
Askell
Girish Sastry Girish
Sastry
Pranav Shyam Pranav
Shyam
Arvind Neelakantan Arvind
Neelakantan
Jared Kaplan Jared
Kaplan
Melanie Subbiah Melanie
Subbiah
Nick Ryder Nick
Ryder
Benjamin Mann Benjamin
Mann
Kewal Dhariwal Kewal
Dhariwal
Rewon Child Rewon
Child
Jack Clark Jack
Clark
Dario Amodei Dario
Amodei
Alec Radford Alec
Radford
Tom B. Brown Tom B.
Brown
Prafulla Dhariwal Prafulla
Dhariwal

iconStatistisches Begriffsnetz  Dies ist eine graphische Darstellung derjenigen Begriffe, die häufig gleichzeitig mit dem Hauptbegriff erwähnt werden (Cozitation).

iconZitationsgraph

Diese Grafik ist nur im SVG-Format verfügbar. Dieses Format wird vom verwendeteten Browser offenbar nicht unterstützt.

Diese Grafik fensterfüllend anzeigen (SVG)

iconZeitleiste

icon26 Erwähnungen  Dies ist eine nach Erscheinungsjahr geordnete Liste aller im Biblionetz vorhandenen Werke, die das ausgewählte Thema behandeln.

iconAnderswo suchen  Auch im Biblionetz finden Sie nicht alles. Aus diesem Grund bietet das Biblionetz bereits ausgefüllte Suchformulare für verschiedene Suchdienste an. Biblionetztreffer werden dabei ausgeschlossen.

iconBiblionetz-History Dies ist eine graphische Darstellung, wann wie viele Verweise von und zu diesem Objekt ins Biblionetz eingetragen wurden und wie oft die Seite abgerufen wurde.