/ en / Traditional / help

Beats Biblionetz - Aussagen

Generative Machine-Learning-Systeme erleichtern das Generieren von Fake-News massiv

iconBiblioMap Dies ist der Versuch, gewisse Zusammenhänge im Biblionetz graphisch darzustellen. Könnte noch besser werden, aber immerhin ein Anfang!

Diese Grafik ist nur im SVG-Format verfügbar. Dieses Format wird vom verwendeteten Browser offenbar nicht unterstützt.

Diese Grafik fensterfüllend anzeigen (SVG)

iconBemerkungen

döbeli honegger prognostiziert, infolge der neuen tools werde die informationsflut ansteigen. auch die flut an fakenews dürfte zunehmen.
Von Jochen Zenthöfer im Text Wie ChatGPT die Schule verändern wird (2023)
Katharina ZweigNatürlich kann man mithilfe von generativen Textsystemen Desinformation in einer sprachlich hohen Qualität sehr, sehr schnell erstellen. Aber wir sollten nie sagen: Die KI war’s! Da sind ja Menschen dahinter.
Von Katharina Zweig im Text Können wir künstlicher Intelligenz vertrauen, Frau Zweig? (2023)
Döbeli Honegger sagt, es werde wichtiger denn je, Schülerinnen und Schülern Medienkompetenz beizubringen. ChatGPT und alle anderen Text- Roboter, die jetzt in der Pipeline sind, werden zu einer Flut an geschriebenen Informationen führen. Fake News werden immer seriöser daherkommen. In der Schule müsse man lernen, wie ein KI-Text als solcher zu erkennen sei. Das müsse «Teil der Allgemeinbildung» werden, sagt der Dozent.
Von Geri Holdener im Text Professor der PH Schwyz testet Textroboter und gibt Tipps für Schulen (2023)
Indeed, new state-of-the-art artificial intelligence (AI) technologies can now generate text that mimics the style and substance of real news stories while overcoming the bandwidth limits that face human-generated text. If these models enable malicious actors to generate and publish crediblesounding news stories at scale, then the prospect for misinformation, defined as “false or misleading information,” 3 is high: the volume of inauthentic media could balloon, and the ease of text synthesis might further enable the coordinated hyper-targeting of articles to individual groups.
Von Sarah Kreps, Miles McCain, Miles Brundage im Text All the News that’s Fit to Fabricate (2020)
Beat Döbeli HoneggerWie gross ist die Gefahr, dass durch KI noch viel mehr Fake News, also Falschmeldungen, verbreitet werden?
Selbstverständlich werden Fake News einfacher und perfekter herstellbar. Wir müssen uns darauf einstellen, dass es immer schwieriger wird, Texte, Bilder und Videos als Fälschungen zu entlarven. Obwohl Allgemeinbildung und Medienkompetenz bis zu einem gewissen Grad bei der Erkennung helfen, müssen wir uns darauf vorbereiten, dass es zur sogenannten Lügner-Dividende kommt: Wenn alles fälschbar scheint, so nimmt auch die Glaubwürdigkeit seriöser Quellen ab, was für die Demokratie gefährlich ist.
Von Beat Döbeli Honegger im Text Wie klug ist künstliche Intelligenz? (2023)
Was wir heute erleben, ist erst der Anfang. Das Spektrum wird von solchen leicht durchschaubaren und fast lustigen Fakes bis zu seriös aufgemachten Fälschungen von Nachrichtenseiten reichen. Diese könnten zum Beispiel gefälschte Lokalnachrichten an Hunderten von Orten in den umkämpften Swing States verbreiten: eloquente und überzeugende Geschichten über vermeintliche Skandale von Joe Biden oder Trump oder einem lokalen Kandidaten für den Kongress. Denkbar wäre auch, dass Wähler automatisierteAnrufe einer KI-generierten Stimme erhalten, die wie Biden klingt und behauptet, dass die Wahl um einen Tag nach hinten verschoben wurde. Die Möglichkeiten sind unbegrenzt.
Von Steven Brill im Text «Wir haben 166 Nachrichtenseiten gefunden, die von KI geschrieben wurden» (2023)
We found that people can be manipulated by AI-generated text such that they cannot discern real from synthetic content. The narrower consequence of a manipulable public is that misinformation campaigns have a ripe target. Malicious actors can easily produce AI-generated content and generate confusion about the truth, undermining trust in democratic institutions such as the media. More generally, however, the ease of manipulation suggests avenues for misinformation not in service of political persuasion but instead in sowing confusion and distrust. Following Kant’s belief in “a common sense as the necessary condition of the universal communicability of our knowledge," the erosion of common reference points has the potential to undermine the basis of coherent public policy.
Von Sarah Kreps, Miles McCain, Miles Brundage im Text All the News that’s Fit to Fabricate (2020)
Douglas RushkoffAI’s ability to generate deep fake videos and new stories doesn’t frighten meeither. It just puts us back where we were when we used to get our newsfrom printed text. Anyone can put anything into the same font, print it out,and pass it around. The veracity of a news story has nothing to do with itsproduction value and everything to do with the integrity of the institutionproducing it. That’s why news organizations are supposed to work within asystem of “journalistic standards and practices.” They teach this stuff injournalism school, and places like BBC (and sometimes CNN) employ it. Yourwillingness to consider the ideas in this piece is dependent on your trust inme, a human being with a reputation at stake and, hopefully, a track recordof at least attempting to write truthfully.
Von Douglas Rushkoff im Text The Medium is the Message (2022)
A third category of risk involves bad actors taking advantage of the ability of large LMs to produce large quantities of seemingly coherent texts on specific topics on demand in cases where those deploying the LM have no investment in the truth of the generated text. These include prosaic cases, such as services set up to ‘automatically’ write term papers or interact on social media,23 as well as use cases connected to promoting extremism. For example, McGuffie and Newhouse [80] show how GPT-3 could be used to generate text in the persona of a conspiracy theorist, which in turn could be used to populate extremist recruitment message boards. This would give such groups a cheap way to boost recruitment by making human targets feel like they were among many like-minded people.
Von Emily M. Bender, Timnit Gebru, Angelina McMillan-Major, Shmargaret Shmitchell im Text On the Dangers of Stochastic Parrots (2021)
Doris WeßelsIch kann mit ChatGPT zum Beispiel einenPresse- oder Blogbeitrag in 30 Sekunden oder weniger schreiben.Ich könnte aber auch Fake-News in der gleichen Geschwindigkeitproduzieren, indem ich irgendetwas behaupte und ein paarStichworte dazu eingebe. ChatGPT kann somit gleichermaßenpositiv wie negativ verwendet werden. Im digitalen Raum kann der Missbrauch über die Reichweitezudem enorm vergrößert werden. Ich kann Fake-News extremschnell verbreiten und Bots einsetzen, die Feedback geben. Mankann damit täuschende, betrügerische und manipulierendeMedien betreiben. Neben Text geht es zunehmend mehr auch umFakes in Form von Bildern und Videos. Wir können kaum nochzwischen Fiktion und Realität unterscheiden, weil die generativenKI-Tools für die Produktion von Bildern und Videos in sehr kurzerZeit drastisch besser geworden sind.
Von Doris Weßels im Text ChatGPT kommt wie ein Erdbeben über uns (2023)

icon11 Vorträge von Beat mit Bezug

iconZitationsgraph

Diese Grafik ist nur im SVG-Format verfügbar. Dieses Format wird vom verwendeteten Browser offenbar nicht unterstützt.

Diese Grafik fensterfüllend anzeigen (SVG)

iconZeitleiste

icon30 Erwähnungen  Dies ist eine nach Erscheinungsjahr geordnete Liste aller im Biblionetz vorhandenen Werke, die das ausgewählte Thema behandeln.

iconAnderswo suchen  Auch im Biblionetz finden Sie nicht alles. Aus diesem Grund bietet das Biblionetz bereits ausgefüllte Suchformulare für verschiedene Suchdienste an. Biblionetztreffer werden dabei ausgeschlossen.

iconBiblionetz-History Dies ist eine graphische Darstellung, wann wie viele Verweise von und zu diesem Objekt ins Biblionetz eingetragen wurden und wie oft die Seite abgerufen wurde.