Künstliche Intelligenz ist ein ungeeigneter Begriff
Erklärung als Video
Bemerkungen
Wir sollten nicht allgemein über KI diskutieren, sondern einzelne Systeme anschauen. Ich gehe doch auch nicht auf eine Baustelle und nenne alles vom Nagel über die Zange bis zum Kran »künstliche Kraft«.
Sehen Sie, und da ist bereits der Haken: Wozu es einen Menschen braucht, hat sich in den letzten 50 Jahren stark verändert. In den 1960ern brauchte es das menschliche Gehirn, um Kopfrechenaufgaben zu lösen. Dann übernahm der Taschenrechner. Als 1996 ein Computer Schachweltmeister wurde, sprach man von künstlicher Intelligenz. Heute sieht man dies als reine Rechenpower an. Was wir gestern als KI bezeichnet haben, ist es in fünf Jahren nicht mehr. Daher vermeide ich den Begriff nach Möglichkeit, weil er schwammig ist und man alles oder nichts darunter verstehen kann.
Um die schwammige Verwendung von künstlicher Intelligenz im gesellschaftlichen Diskurs zu charakterisieren, schlage ich den Begriff der Zeitgeist-KI vor. In dem Zusammenhang kann der Begriff KI dann von Big Data und Statistik über Software, IT, Digitalisierung, Algorithmen, Roboter, Apps und IKT bis hin zum Internet in etwa alles bedeuten. Auch im politischen Diskurs wird pauschal von „künstlicher Intelligenz“ gesprochen, egal, ob es um selbstfahrende Autos, Roboterhunde, automatisierte Entscheidungssysteme, Klimamodelle, automatisierte Arbeitsmarktvermittlungssysteme, Tischreservierungssysteme oder smarte Verkehrsleitsysteme geht; beizeiten werden auch traditionelle Informatikprodukte mit dem Label versehen. Alles ist „KI“, obwohl in alledem wenig bis keine künstliche Intelligenz steckt. In einem aktuellen Bericht zum Stand von KI in der öffentlichen Verwaltung heißt es etwa, „dass oftmals Projekte als KI-basiert bezeichnet würden, jedoch de facto konventionelle IKT-Anwendungen nutzen“. Aber auch in Wissenschaft und Wirtschaft ist jenes schwammige Verständnis anzutreffen. Um eine reflektierte gesellschaftliche Auseinandersetzung mit künstlicher Intelligenz zu ermöglichen, muss dieses Verständnis expliziert, mithin aufgelöst werden.
Instead of using the terms “Artificial intelligence, “AI,” and “machine learning,” the Privacy Center will:
- Be as specific as possible about what the technology in question is and how it works. For example, instead of saying “face recognition uses artificial intelligence,” we might say something like “tech companies use massive data sets to train algorithms to match images of human faces.” Where a complete explanation is disruptive to our larger argument, or beyond our expertise, we will point readers to external sources.
- Identify any obstacles to our own understanding of a technology that result from failures of corporate or government transparency. For example, instead of saying “employers are using AI to analyze workers’ emotions” we might say “employers are using software advertised as having the ability to label workers’ emotions based on images of them from photographs and video. We don’t know how the labeling process works because the companies that sell these products claim that information as a trade secret.”
- Name the corporations responsible for creating and spreading the technological product. For example, instead of saying “states use AI to verify the identities of people applying for unemployment benefits,” we might say “states are contracting with a company called ID.me, which uses Amazon Rekognition, a face matching algorithm, to verify the identities of people applying for unemployment benefits.”
- Attribute agency to the human actors building and using the technology, never to the technology itself. This needn’t always require excessive verbiage. For example, we might substitute “machine training,” which sounds like something a person does with a machine, for “machine learning” which sounds like a computer doing something on its own.
We don’t yet know exactly what will happen to our thinking and writing without these crutches, but finding out is part of the point.
2 Vorträge von Beat mit Bezug
- Wenn ChatGPT in der Lehrer:innenbildung mitredet
(Video des Referats)
Tag der Lehre der PHZH, 01.02.2024 - Antworten auf Knopfdruck?
Mitarbeitendenklausur der PHSZ, 19.02.2024
Einträge in Beats Blog
Zitationsgraph
Zitationsgraph (Beta-Test mit vis.js)
Zeitleiste
15 Erwähnungen
- Stop Calling Everything AI, Machine-Learning Pioneer Says (Kathy Pretz) (2021)
- Artifice and Intelligence (Emily Tucker) (2022)
- Können wir künstlicher Intelligenz vertrauen, Frau Zweig? (Katharina A. Zweig, Rudi Novotny, Stefan Schmitt) (2023)
- Zwischen Macht und Mythos - Eine kritische Einordnung aktueller KI-Narrative (Rainer Rehak) (2023)
- »Etwas größenwahnsinnig« (Jaron Lanier, Götz Hamann, Jakob von Lindern) (2023)
- On the Limits of Artificial Intelligence (AI) in Education (Neil Selwyn) (2024)
- AI in education is a public problem (Ben Williamson) (2024)
- Intelligenza: artificiale o meccanica, questo è il problema (Enrico Nardelli) (2024)
- AI washing explained: Everything you need to know (Ben Lutkevich) (2024)
- Kampf der Schreibmaschinen-Digitalisierung (Beat Döbeli Honegger) (2024)
- Künstliche Intelligenz - wie Kinder im digitalen Zeitalter lernen (Beat Döbeli Honegger, Damian Haas) (2024)
- What is 'AI washing' and why is it a problem? (Emma Woollacott) (2024)
- Nexus - Eine kurze Geschichte der Informationsnetzwerke von der Steinzeit bis zur künstlichen Intelligenz (Yuval Noah Harari) (2024)
- AI Snake Oil - What Artificial Intelligence Can Do, What It Can’t, and How to Tell the Difference (Arvind Narayanan, Sayash Kapoor) (2024)
- KI im Klassenzimmer (2024)
- «Wir müssen lebenslanges Lernen selbst leben» (Beat Döbeli Honegger, Sarah Forrer) (2024)