Chatbots wie GPT können wunderbare Sätze bilden. Genau das macht sie zum ProblemErstpublikation in: republik 11.04.2023
Publikationsdatum:
|
|
Diese Seite wurde seit 1 Jahr inhaltlich nicht mehr aktualisiert.
Unter Umständen ist sie nicht mehr aktuell.
Zusammenfassungen
Künstliche Intelligenz täuscht uns etwas vor, was nicht ist. Ein Plädoyer gegen die allgemeine Begeisterung.
Von Klappentext im Text Chatbots wie GPT können wunderbare Sätze bilden. Genau das macht sie zum Problem (2023) Dieser Zeitungsartikel erwähnt ...
Personen KB IB clear | Harry G. Frankfurt , Blake Lemoine | ||||||||||||||||||
Aussagen KB IB clear | Fake-News gefährden die Demokratie
Generative Machine-Learning-Systeme erleichtern das Generieren von Bullshit Generative Machine-Learning-Systeme erleichtern das Generieren von Fake-News massiv | ||||||||||||||||||
Begriffe KB IB clear | Chat-GPT , Demokratiedemocracy , Fake-News , Generative Machine-Learning-Systeme (GMLS)computer-generated text , Generative Pretrained Transformer 4 (GPT-4) , Künstliche Intelligenz (KI / AI)artificial intelligence , Lernenlearning , Vertrauentrust | ||||||||||||||||||
Bücher |
|
Dieser Zeitungsartikel erwähnt vermutlich nicht ...
Nicht erwähnte Begriffe | Generative Pretrained Transformer 3 (GPT-3), GMLS & Bildung, GMLS & Schule, Intelligenz |
Tagcloud
Volltext dieses Dokuments
Chatbots wie GPT können wunderbare Sätze bilden. Genau das macht sie zum Problem: Artikel als Volltext (: , 415 kByte; : ) |
Anderswo suchen
Beat und dieser Zeitungsartikel
Beat hat Dieser Zeitungsartikel während seiner Zeit am Institut für Medien und Schule (IMS) ins Biblionetz aufgenommen. Beat besitzt kein physisches, aber ein digitales Exemplar. Eine digitale Version ist auf dem Internet verfügbar (s.o.). Es gibt bisher nur wenige Objekte im Biblionetz, die dieses Werk zitieren.