/ en / Traditional / help

Beats Biblionetz - Begriffe

Googles Gorilla-Problem

Diese Seite wurde seit mehr als 7 Monaten inhaltlich nicht mehr aktualisiert. Unter Umständen ist sie nicht mehr aktuell.

iconBiblioMap Dies ist der Versuch, gewisse Zusammenhänge im Biblionetz graphisch darzustellen. Könnte noch besser werden, aber immerhin ein Anfang!

Diese Grafik ist nur im SVG-Format verfügbar. Dieses Format wird vom verwendeteten Browser offenbar nicht unterstützt.

Diese Grafik fensterfüllend anzeigen (SVG)

iconBemerkungen

Google, for example, tweaked its image-recognition algorithm in 2015 after the system mislabelled an African American couple as gorillas.
Von Kate Crawford, Ryan Calo im Text There is a blind spot in AI research (2016)
Neuronale DenkfehlerGoogle ringt übrigens bis heute um eine Lösung des Problems: Die Kategorien „Gorilla“ und „Affe“ sind seit drei Jahren deaktiviert; stattdessen zeigt der Konzern ein pädagogisch wertvolles Erklärvideo, das um Verständnis für das Phänomen der Stichprobenverzerrung wirbt.
Von Andrea Trinkwalder in der Zeitschrift Neuronale Denkfehler (2018) im Text Irren ist künstlich
Gerd GigerenzerVielleicht haben Sie von der beschämenden Geschichte gehört, dass Googles Bildklassifikationssystem ein dunkelhäutiges Paar als »Gorillas« eingeordnet hat. Die Ingenieure reagierten sofort, aber nicht so, wie man hätte meinen können. Statt sich mit dem Kern des Problems auseinanderzusetzen, entschieden sie sich für die stillschweigende Lösung, die Kategorien »Gorilla«, »Schimpanse« und »Affe« zu entfernen. Seither werden Bilder von Affen nicht als solche identifiziert. Tiefe neuronale Netze sind so komplex geworden, dass sie sich nicht mehr ohne Weiteres verstehen und korrigieren lassen.
Von Gerd Gigerenzer im Buch Klick (2021) im Text Sind selbstfahrende Autos zum Greifen nah?
Neuronale DenkfehlerBei Googles berühmtem Katzen - detektor hat das perfekt funktioniert, aber schon bei Fotos von Menschen fingen die Probleme an. Zwar herrscht im Internet wahrlich kein Mangel an Bildern, die Menschen zeigen. Der Haken ist, dass in dieser riesigen Sammlung Abbildungen von hellhäutigen Männern dominieren und Farbige stark unterrepräsentiert sind. Nutzt ein Anbieter nun beispielsweise die ersten 100.000 Ergebnisse der Bildersuche „Mensch“ und trainiert damit sein künstliches neuronales Netz, wird dieses die helle Hautfarbe fälschlicherweise als eines der wichtigsten Merkmale des Menschen wahrnehmen. Trainiert man das System auch auf die Erkennung von Gorillas, wird das Netz eine schwarze Gesichtsfarbe als sehr starkes Indiz für einen Gorilla werten. Die „rassistische“ KI ist geboren.
Von Andrea Trinkwalder in der Zeitschrift Neuronale Denkfehler (2018) im Text Irren ist künstlich

iconVerwandte Objeke

icon
Verwandte Begriffe
(Cozitation)
Amazons-KI-Bewerbungsverfahren, Trolley-Problem, Predictive PolicingPredictive Policing, deep learning, Selbstfahrende Autosautonomous car

iconStatistisches Begriffsnetz  Dies ist eine graphische Darstellung derjenigen Begriffe, die häufig gleichzeitig mit dem Hauptbegriff erwähnt werden (Cozitation).

iconZitationsgraph

Diese Grafik ist nur im SVG-Format verfügbar. Dieses Format wird vom verwendeteten Browser offenbar nicht unterstützt.

Diese Grafik fensterfüllend anzeigen (SVG)

iconErwähnungen  Dies ist eine nach Erscheinungsjahr geordnete Liste aller im Biblionetz vorhandenen Werke, die das ausgewählte Thema behandeln.

iconAnderswo suchen  Auch im Biblionetz finden Sie nicht alles. Aus diesem Grund bietet das Biblionetz bereits ausgefüllte Suchformulare für verschiedene Suchdienste an. Biblionetztreffer werden dabei ausgeschlossen.

iconBiblionetz-History Dies ist eine graphische Darstellung, wann wie viele Verweise von und zu diesem Objekt ins Biblionetz eingetragen wurden und wie oft die Seite abgerufen wurde.