/ en / Traditional / help

Beats Biblionetz - Texte

Talking about Large Language Models

Murray Shanahan
Erstpublikation in: Communications of the ACMVolume 67Issue 2pp 68–79
Publikationsdatum:
Erste Seite des Textes (PDF-Thumbnail)

iconZusammenfassungen

Interacting with a contemporary LLM-based conversational agent can create an illusion of being in the presence of a thinking creature. Yet, in their very nature, such systems are fundamentally not like us.
Von Murray Shanahan im Text Talking about Large Language Models (2024)

iconDieser wissenschaftliche Zeitschriftenartikel erwähnt ...


Personen
KB IB clear
Sandhini Agarwal , Dario Amodei , Amanda Askell , Emily M. Bender , Christopher Berner , Tom B. Brown , Mark Chen , Benjamin Chess , Rewon Child , Jack Clark , Kewal Dhariwal , Prafulla Dhariwal , Timnit Gebru , Aidan N. Gomez , Scott Gray , Shixiang Shane Gu , Tom Henighan , Ariel Herbert-Voss , Christopher Hesse , Yusuke Iwasawa , Llion Jones , Lukasz Kaiser , Jared Kaplan , Takeshi Kojima , Gretchen Krueger , Mateusz Litwin , Benjamin Mann , Yutaka Matsuo , Sam McCandlish , Angelina McMillan-Major , Arvind Neelakantan , OpenAI , Niki Parmar , Illia Polosukhin , Alec Radford , Aditya Ramesh , Machel Reid , Nick Ryder , Girish Sastry , Noam Shazeer , Shmargaret Shmitchell , Pranav Shyam , Eric Sigler , Melanie Subbiah , Ilya Sutskever , Jakob Uszkoreit , Ashish Vaswani , Clemens Winter , Jeffrey Wu , Daniel M. Ziegler

Fragen
KB IB clear
Kann ein Computer Geist besitzen?
Können Computer denken?Can computers think?

Begriffe
KB IB clear
Chain of Thought , Chat-GPT , EmbodimentEmbodiment , Emergenzemergence , Generative Machine-Learning-Systeme (GMLS)computer-generated text , Generative Pretrained Transformer 3 (GPT-3) , Generative Pretrained Transformer 4 (GPT-4) , GPT-2 , prompt engineering , reinforcement learning , RLHF (Reinforcement Learning from Human Feedback)
icon
Bücher
Jahr  Umschlag Titel Abrufe IBOBKBLB
2020 local web  Language Models are Few-Shot Learners (Tom B. Brown, Benjamin Mann, Nick Ryder, Melanie Subbiah, Jared Kaplan, Kewal Dhariwal, Prafulla Dhariwal, Arvind Neelakantan, Pranav Shyam, Girish Sastry, Amanda Askell, Sandhini Agarwal, Ariel Herbert-Voss, Gretchen Krueger, Tom Henighan, Rewon Child, Aditya Ramesh, Daniel M. Ziegler, Jeffrey Wu, Clemens Winter, Christopher Hesse, Mark Chen, Eric Sigler, Mateusz Litwin, Scott Gray, Benjamin Chess, Jack Clark, Christopher Berner, Sam McCandlish, Alec Radford, Ilya Sutskever, Dario Amodei) 4, 6, 8, 7, 6, 3, 2, 8, 2, 8, 5, 6 38 5 6 143
icon
Texte
Jahr  Umschlag Titel Abrufe IBOBKBLB
local web  Large Language Models are Zero-Shot Reasoners (Takeshi Kojima, Shixiang Shane Gu, Machel Reid, Yutaka Matsuo, Yusuke Iwasawa) 3 5 0 0
2021 local web  On the Dangers of Stochastic Parrots (Emily M. Bender, Timnit Gebru, Angelina McMillan-Major, Shmargaret Shmitchell) 6, 2, 7, 12, 8, 3, 2, 9, 5, 9, 7, 5 42 25 5 154
2023 local web  GPT-4 Technical Report (OpenAI) 22 17 0 0
2023 local web  Attention Is All You Need (Ashish Vaswani, Noam Shazeer, Niki Parmar, Jakob Uszkoreit, Llion Jones, Aidan N. Gomez, Lukasz Kaiser, Illia Polosukhin) 24 6 0 0

iconDieser wissenschaftliche Zeitschriftenartikel erwähnt vermutlich nicht ... Eine statistisch erstelle Liste von nicht erwähnten (oder zumindest nicht erfassten) Begriffen, die aufgrund der erwähnten Begriffe eine hohe Wahrscheinlichkeit aufweisen, erwähnt zu werden.

iconTagcloud

iconZitationsgraph

Diese Grafik ist nur im SVG-Format verfügbar. Dieses Format wird vom verwendeteten Browser offenbar nicht unterstützt.

Diese SVG-Grafik fensterfüllend anzeigen

iconZitationsgraph (Beta-Test mit vis.js)

iconAnderswo finden

icon

iconVolltext dieses Dokuments

Auf dem WWW Talking about Large Language Models: Artikel als Volltext (lokal: PDF, 792 kByte; WWW: Link OK )

iconAnderswo suchen  Auch im Biblionetz finden Sie nicht alles. Aus diesem Grund bietet das Biblionetz bereits ausgefüllte Suchformulare für verschiedene Suchdienste an. Biblionetztreffer werden dabei ausgeschlossen.

iconBeat und dieser wissenschaftliche Zeitschriftenartikel

Beat hat Dieser wissenschaftliche Zeitschriftenartikel während seiner Zeit am Institut für Medien und Schule (IMS) ins Biblionetz aufgenommen. Beat besitzt kein physisches, aber ein digitales Exemplar. Eine digitale Version ist auf dem Internet verfügbar (s.o.). Es gibt bisher nur wenige Objekte im Biblionetz, die dieses Werk zitieren.

iconBiblionetz-History Dies ist eine graphische Darstellung, wann wie viele Verweise von und zu diesem Objekt ins Biblionetz eingetragen wurden und wie oft die Seite abgerufen wurde.