Neuronale Netze lassen sich im Gegensatz zu (traditionellen) Algorithmen nicht durchschauen (Black-Box-Problem)
Diese Seite wurde seit 5 Jahren inhaltlich nicht mehr aktualisiert.
Unter Umständen ist sie nicht mehr aktuell.
Bemerkungen
Die Programmiererin gibt also ein Stück Kontrolle ab, wenn sie ein neuronales Netz einsetzt. Sie kann es nach ihren Vorstellungen trainieren, aber sie kann es nicht durchschauen wie herkömmliche Programme
Von Thomas Preusse, Hanna Wick im Text Blick in die Blackbox (2018) The system is so complicated that even the
engineers who designed it may struggle to isolate the reason for any single action. And you can’t ask it: there is no obvious way to design such a system so that it could always explain why it did what it did.
Von Will Knigh im Text The Dark Secret at the Heart of AI (2017) Was genau vernetzte
digitale Algorithmen dann als
Output liefern, können im Zeitalter von
Machine Learning manchmal nicht einmal
die Programmierer einfach nachvollziehen,
denn es ist das Resultat
einer Abfolge automatisierter, ineinandergreifender
Entscheidungsprozesse.
Von Anna Jobin im Text Was bei Algorithmen hinten herauskommt, weiss niemand so genau - und warum, noch viel weniger (2018) Viele der aktuell erfolgreichsten KI-Methoden stellen eine «Black Box» dar; d.h. es ist nicht mehr erklärbar und nachvollziehbar, wie eine bestimmte Vorhersage oder ein bestimmtes Ergebnis zustande kommt oder wie ein KI-System bei einer konkreten Fragestellung zu einer spezifischen Antwort gekommen ist. Selbst wenn es gelänge, den Zusammenhang zwischen den Eingabedaten und dem
Resultat zu erkennen, wäre eine Erklärung der Art, dass das Resultat der KI-Berechnung nichtlinear
von 1000 Eingabegrössen abhängt, welche je mit einem individuellen Gewicht in die Berechnung eingehen, zwar richtig, aber für den Benutzer nicht sonderlich brauchbar.
Von Interdepartementale Arbeitsgruppe künstliche Intelligenz im Buch Herausforderungen der künstlichen Intelligenz (2019) auf Seite 30Je nach Anwendungsgebiet ist die fehlende Nachvollziehbarkeit mehr oder weniger problematisch.
Nutzt man AI für automatisierte Übersetzungen, dürfte das Problem wenig relevant sein, zumal die
Bestimmung der Qualität einer Übersetzung relativ schnell ersichtlich ist. Doch wiederum im Beispiel des automatisierten Fahrens ist das Risiko, dass sich ein System in einer Situation völlig unerklärlich verhält, deutlich gravierender. Insbesondere wenn solche Fehler selten auftauchen, sind sie nur schwer zu antizipieren. Dies stellt auch ganz neue Anforderungen auf regulatorischer Ebene. So müsste ein KI-gesteuertes Fahrzeug neben der heute geltenden technischen Zulassung auch im Hinblick auf die Fähigkeit des KI-Fahrroboters zum sicheren automatisierten Betrieb des Verkehrsmittels evaluiert werden.
Von Interdepartementale Arbeitsgruppe künstliche Intelligenz im Buch Herausforderungen der künstlichen Intelligenz (2019) auf Seite 31Mit dem Black-Box-Problem verbunden sind weitere Herausforderungen. So können Zusammenhänge
in Daten erkenntlich werden, ohne dass eine zugrundeliegende Theorie vorhanden ist. Damit kann ein
Modell funktionieren ohne dass sich begründen lässt, wie oder warum es für eine bestimmte Art von
Problem wirksam ist. Auch ist die Leistung eines Modells angesichts der Black-Box-Problematik nur
schwer vorherzusagen.33 Zudem können solche Modelle nicht mehr wie klassische Software umfassend
getestet werden. All diese Probleme können den erfolgreichen Transfer eines Modells von der
Entwicklung in die Realität erschweren. Allerdings sind in erster Linie bestimmte ML-Algorithmen des Deep Learning betroffen (siehe Anhang 2 für eine Erklärung). Dagegen führen beispielsweise bestimmte Formen des überwachten Lernens bei Klassifikationsaufgaben zu Ergebnissen, bei denen der
Prozess der Klassifikation durchaus einsichtig ist.
Von Interdepartementale Arbeitsgruppe künstliche Intelligenz im Buch Herausforderungen der künstlichen Intelligenz (2019) auf Seite 31Zitationsgraph
Zitationsgraph (Beta-Test mit vis.js)
4 Erwähnungen
- The Dark Secret at the Heart of AI (Will Knigh) (2017)
- Was bei Algorithmen hinten herauskommt, weiss niemand so genau - und warum, noch viel weniger (Anna Jobin) (2018)
- Blick in die Blackbox (Thomas Preusse, Hanna Wick) (2018)
- Herausforderungen der künstlichen Intelligenz - Bericht der interdepartementalen Arbeitsgruppe «Künstliche Intelligenz» an den Bundesrat (Interdepartementale Arbeitsgruppe künstliche Intelligenz) (2019)