/ en / Traditional / help

Beats Biblionetz - Personen

Maike Elisa Müller

Dies ist keine offizielle Homepage von Maike Elisa Müller, E-Mails an Maike Elisa Müller sind hier nicht möglich!
This is not an official homepage of Maike Elisa Müller and it is not possible to contact Maike Elisa Müller here!

Diese Seite wurde seit 4 Jahren inhaltlich nicht mehr aktualisiert. Unter Umständen ist sie nicht mehr aktuell.

icon10 Texte von Maike Elisa Müller Hier finden Sie Texte der gewählten Person, die nicht in den oben aufgelisteten Büchern zu finden sind.

Jahr Volltext Abrufe Text Texttyp
2019 local web 1, 5, 4, 4, 1, 3, 6, 3, 2, 3, 4, 7Schlusswort (Jannik Kossen, Maike Elisa Müller, Elena Natterer)
erschienen in Wie Maschinen lernen (Seite 241 - 245)  local web 
Kapitel
2019 local web 7, 3, 2, 1, 2, 7, 3, 1, 5, 1, 3, 7Generative gegnerische Netzwerke (Jannik Kossen, Maike Elisa Müller)
erschienen in Wie Maschinen lernen (Seite 195 - 201)  local web 
Kapitel
2019 local web 9, 1, 6, 1, 3, 9, 3, 1, 4, 5, 1, 10No Free Lunch Theorem (Maike Elisa Müller)
erschienen in Wie Maschinen lernen (Seite 181 - 184)  local web 
Kapitel
2019 local web Faltungsnetze (Jannik Kossen, Maike Elisa Müller)
erschienen in Wie Maschinen lernen (Seite 163 - 169)  local web 
Kapitel
2019 local web Verzerrung-Varianz-Dilemma (Jannik Kossen, Maike Elisa Müller)
erschienen in Wie Maschinen lernen (Seite 119 - 123)  local web 
Kapitel
2019 local web Entscheidungsbäume (Jannik Kossen, Maike Elisa Müller, Max Ruckriegel)
erschienen in Wie Maschinen lernen (Seite 111 - 118)  local web 
Kapitel
2019 local web Ausreißer (Jannik Kossen, Maike Elisa Müller)
erschienen in Wie Maschinen lernen (Seite 69 - 72)  local web 
Kapitel
2019 local web Lineare Regression (Jannik Kossen, Maike Elisa Müller)
erschienen in Wie Maschinen lernen (Seite 61 - 67)  local web 
Kapitel
2019 local web Regression (Jannik Kossen, Maike Elisa Müller)
erschienen in Wie Maschinen lernen (Seite 39 - 43)  local web 
Kapitel
2019 local web 2, 5, 6, 5, 1, 5, 8, 2, 3, 2, 2, 7Einleitung (Jannik Kossen, Fabrizio Kuruc, Maike Elisa Müller)
erschienen in Wie Maschinen lernen (Seite 3 - 10)  local web 
Kapitel

iconDefinitionen von Maike Elisa Müller

Generative Adversarial Network (GAN)
  • Die Idee hinter GANs ist außergewöhnlich, die Resultate beeindruckend und der Hype um sie groß: Zwei neuronale Netzwerke trainieren sich gegenseitig – oder, sie treten gegeneinander an – und werden dabei immer besser. Die Netzwerke nehmen unterschiedliche Rollen im Lernprozess ein. Das eine Netzwerk ist der sogenannte Diskriminator, das andere der Generator. Die Aufgabe des Diskriminators ist es, echte Daten von Fälschungen zu unterscheiden.
    von Jannik Kossen, Maike Elisa Müllerim Buch Wie Maschinen lernen (2019) im Text Generative gegnerische Netzwerke auf Seite 196
Künstliche Intelligenz (KI / AI)
  • Künstliche Intelligenz ist ein Oberbegriff, der immer dann benutzt wird, wenn Systeme Entscheidungen treffen, für die man vermutlich „Intelligenz“ besitzen muss – was auch immer das genau bedeutet. Diese recht schwammige Definition reicht nicht für philosophische Unterhaltungen über das Thema aus, aber sie drückt ganz gut aus, was wir unter künstlicher Intelligenz verstehen. Was unter diesen Begriff fällt, hängt allerdings auch von der Zeit ab, in der man sich befindet. Waren die Menschen vor einigen Jahren noch dazu bereit, Navigationssysteme als künstliche Intelligenz zu bezeichnen, so beeindrucken uns diese heutzutage schon lange nicht mehr. Vielleicht wird es selbstfahrenden Autos 1 Einleitung 7 dann bald ähnlich ergehen. Andere Definitionen von künstlicher Intelligenz beinhalten oft das Kriterium, dass „intelligente“ Systeme mit ihrer Umgebung interagieren müssen: Das heißt, Informationen aus der Umwelt aufzunehmen, auf diese zu reagieren, aus dieser zu lernen und daraus zukünftiges Verhalten abzuleiten.
    von Jannik Kossen, Fabrizio Kuruc, Maike Elisa Müllerim Buch Wie Maschinen lernen (2019) im Text Einleitung auf Seite 6
machine learning
  • Maschinelles Lernen ist der Sammelbegriff für alle Computerprogramme, deren Verhalten nicht fest einprogrammiert ist. Stattdessen gibt man fest vor, wie diese aus Daten lernen. Aus den Daten kann dann das Verhalten der Computerprogramme in die gewünschte Richtung geformt werden. Maschinelles Lernen ist daher eine sehr beliebte Möglichkeit, Systeme zu erschaffen, die über künstliche Intelligenz verfügen.
    von Jannik Kossen, Fabrizio Kuruc, Maike Elisa Müllerim Buch Wie Maschinen lernen (2019) im Text Einleitung auf Seite 7
No Free Lunch Theorem
  • Im Leben gibt es wenig gratis und erst recht kein kostenloses Mittagessen – No Free Lunch im Englischen. In diesem Fall bedeutet dies, dass wir nicht wissen, welcher Algorithmus für ein konkretes Problem am besten ist, wenn wir kein Vorwissen über das Problem oder die Daten haben. Diese Aussage wird in der Literatur als No Free Lunch Theorem bezeichnet. Der Begriff Theorem kommt aus der Mathematik und bezeichnet eine Aussage, die jemand bewiesen hat – von der man also sicher weiß, dass sie richtig ist.
    von Maike Elisa Müllerim Buch Wie Maschinen lernen (2019) im Text No Free Lunch Theorem

iconBemerkungen von Maike Elisa Müller

Von Maike Elisa Müller gibt es im Biblionetz Bemerkungen zu:


Bücher
KB IB clear
Wie Maschinen lernen

Texte
KB IB clear
Ausreißer, Einleitung, Entscheidungsbäume, Faltungsnetze, Generative gegnerische Netzwerke, Lineare Regression, No Free Lunch Theorem, Regression, Schlusswort, Verzerrung-Varianz-Dilemma

Begriffe
KB IB clear
No Free Lunch Theorem

iconZeitleiste

iconCoautorInnen

Jannik Kossen, Fabrizio Kuruc, Elena Natterer, Max Ruckriegel

iconZitationsnetz  Dies ist eine graphische Darstellung von im Biblionetz erfassten Zitationen und Co-Autorschaften.

Diese Grafik ist nur im SVG-Format verfügbar. Dieses Format wird vom verwendeteten Browser offenbar nicht unterstützt.

Diese Grafik fensterfüllend anzeigen (SVG)

iconBegriffswolke von Maike Elisa Müller


Begriffswolke
APH KB IB clear
Algorithmusalgorithm, amazon, big databig data, Digitalisierung, facebook, Generative Adversarial Network (GAN), Informatikcomputer science, Künstliche Intelligenz (KI / AI)artificial intelligence, Lernenlearning, machine learning, Maschinemachine, Mathematikmathematics, Modellemodel, Neuronales Netzneural network, No Free Lunch Theorem, Regression, Roboterrobot, Spamfilter, supervised learning, unsupervised learning,

iconZitationsgraph

Diese Grafik ist nur im SVG-Format verfügbar. Dieses Format wird vom verwendeteten Browser offenbar nicht unterstützt.

Diese Grafik fensterfüllend anzeigen (SVG)

iconVolltexte

Auf dem WWW Einleitung: Artikel als Volltext bei Springerlink (lokal: PDF, 389 kByte; WWW: Link OK )
Auf dem WWW Entscheidungsbäume: Artikel als Volltext bei Springerlink (lokal: PDF, 246 kByte; WWW: Link OK )
Auf dem WWW Verzerrung-Varianz-Dilemma: Artikel als Volltext bei Springerlink (lokal: PDF, 262 kByte; WWW: Link OK )
Auf dem WWW Faltungsnetze: Artikel als Volltext bei Springerlink (lokal: PDF, 337 kByte; WWW: Link OK )
Auf dem WWW No Free Lunch Theorem: Artikel als Volltext bei Springerlink (lokal: PDF, 152 kByte; WWW: Link OK )
Auf dem WWW Generative gegnerische Netzwerke: Artikel als Volltext bei Springerlink (lokal: PDF, 297 kByte; WWW: Link OK )
Auf dem WWW Schlusswort: Artikel als Volltext bei Springerlink (lokal: PDF, 154 kByte; WWW: Link OK )
Auf dem WWW Regression: Artikel als Volltext bei Springerlink (lokal: PDF, 347 kByte; WWW: Link OK )
Auf dem WWW Lineare Regression: Artikel als Volltext bei Springerlink (lokal: PDF, 544 kByte; WWW: Link OK )
Auf dem WWW Ausreißer: Artikel als Volltext bei Springerlink (lokal: PDF, 324 kByte; WWW: Link OK )

iconAnderswo suchen  Auch im Biblionetz finden Sie nicht alles. Aus diesem Grund bietet das Biblionetz bereits ausgefüllte Suchformulare für verschiedene Suchdienste an. Biblionetztreffer werden dabei ausgeschlossen.

iconBiblionetz-History Dies ist eine graphische Darstellung, wann wie viele Verweise von und zu diesem Objekt ins Biblionetz eingetragen wurden und wie oft die Seite abgerufen wurde.