/ en / Traditional / help

Beats Biblionetz - Texte

The program that swallowed the internet

Mike Sharples, Rafael Pérez y Pérez
Zu finden in: Story Machines, 2022 local 
Erste Seite des Textes (PDF-Thumbnail)
Diese Seite wurde seit mehr als 8 Monaten inhaltlich nicht mehr aktualisiert. Unter Umständen ist sie nicht mehr aktuell.

iconZusammenfassungen

Story MachinesIn 2019, the OpenAI company released a computer program, GPT-2, that, given a short piece of text, can continue to compose in the same style. GPT-2 is one example of a generative neural network. The system is trained on millions of texts from the internet, and then it is tested by being given a sequence of words it hasn’t previously seen, and it is judged on how well it predicts the next word. Then, a user presents it with an opening sequence of words, and it adds a word to the sequence, takes the new sequence as input, and continues to generate text, word by word. Such systems are hugely proficient producers of language but have fundamental limitations: they do not understand what they write, and they have no common-sense understanding of how people and objects behave.
Von Klappentext im Buch Story Machines (2022) im Text The program that swallowed the internet

iconDieses Kapitel erwähnt ...


Personen
KB IB clear
Sandhini Agarwal, Dario Amodei, Amanda Askell, Christopher Berner, Tom B. Brown, Mark Chen, Benjamin Chess, Rewon Child, Jack Clark, Kewal Dhariwal, Prafulla Dhariwal, Aidan N. Gomez, Scott Gray, Tom Henighan, Ariel Herbert-Voss, Christopher Hesse, Llion Jones, Lukasz Kaiser, Jared Kaplan, Gretchen Krueger, Mateusz Litwin, Benjamin Mann, Sam McCandlish, Arvind Neelakantan, Niki Parmar, Illia Polosukhin, Alec Radford, Aditya Ramesh, Nick Ryder, Girish Sastry, Noam Shazeer, Pranav Shyam, Eric Sigler, Melanie Subbiah, Ilya Sutskever, Jakob Uszkoreit, Ashish Vaswani, Clemens Winter, Jeffrey Wu, Daniel M. Ziegler

Begriffe
KB IB clear
bias, Computercomputer, computergenerierte Texte / large language modelcomputer-generated text, Datendata, Gehirnbrain, Generative Pretrained Transformer 3 (GPT-3), Geschäftsmodellbusiness model, GPT-2, Internetinternet, Microsoft, Neuronneuron, Religionreligion, Softwaresoftware, Wikipedia
icon
Bücher
Jahr  Umschlag Titel Abrufe IBOBKBLB
2020 local web  Language Models are Few-Shot Learners (Tom B. Brown, Benjamin Mann, Nick Ryder, Melanie Subbiah, Jared Kaplan, Kewal Dhariwal, Prafulla Dhariwal, Arvind Neelakantan, Pranav Shyam, Girish Sastry, Amanda Askell, Sandhini Agarwal, Ariel Herbert-Voss, Gretchen Krueger, Tom Henighan, Rewon Child, Aditya Ramesh, Daniel M. Ziegler, Jeffrey Wu, Clemens Winter, Christopher Hesse, Mark Chen, Eric Sigler, Mateusz Litwin, Scott Gray, Benjamin Chess, Jack Clark, Christopher Berner, Sam McCandlish, Alec Radford, Ilya Sutskever, Dario Amodei) 26, 39, 8, 2, 1, 2, 4, 6, 8214896
icon
Texte
Jahr  Umschlag Titel Abrufe IBOBKBLB
local web  Attention Is All You Need (Ashish Vaswani, Noam Shazeer, Niki Parmar, Jakob Uszkoreit, Llion Jones, Aidan N. Gomez, Lukasz Kaiser, Illia Polosukhin) 15600

iconDieses Kapitel erwähnt vermutlich nicht ... Eine statistisch erstelle Liste von nicht erwähnten (oder zumindest nicht erfassten) Begriffen, die aufgrund der erwähnten Begriffe eine hohe Wahrscheinlichkeit aufweisen, erwähnt zu werden.

iconTagcloud

iconZitationsgraph

Diese Grafik ist nur im SVG-Format verfügbar. Dieses Format wird vom verwendeteten Browser offenbar nicht unterstützt.

Diese Grafik fensterfüllend anzeigen (SVG)

iconVolltext dieses Dokuments

The program that swallowed the internet: Artikel als Volltext (lokal: PDF, 217 kByte)

iconAnderswo suchen  Auch im Biblionetz finden Sie nicht alles. Aus diesem Grund bietet das Biblionetz bereits ausgefüllte Suchformulare für verschiedene Suchdienste an. Biblionetztreffer werden dabei ausgeschlossen.

iconBeat und dieses Kapitel

Beat hat Dieses Kapitel während seiner Zeit am Institut für Medien und Schule (IMS) ins Biblionetz aufgenommen. Beat besitzt kein physisches, aber ein digitales Exemplar. (das er aber aus Urheberrechtsgründen nicht einfach weitergeben darf). Es gibt bisher nur wenige Objekte im Biblionetz, die dieses Werk zitieren.

iconBiblionetz-History Dies ist eine graphische Darstellung, wann wie viele Verweise von und zu diesem Objekt ins Biblionetz eingetragen wurden und wie oft die Seite abgerufen wurde.