/ en / Traditional / help

Beats Biblionetz - Personen

Jannik Kossen

Dies ist keine offizielle Homepage von Jannik Kossen, E-Mails an Jannik Kossen sind hier nicht möglich!
This is not an official homepage of Jannik Kossen and it is not possible to contact Jannik Kossen here!

icon11 Texte von Jannik Kossen Hier finden Sie Texte der gewählten Person, die nicht in den oben aufgelisteten Büchern zu finden sind.

Jahr Volltext Abrufe Text Texttyp
2019 local web  6, 3, 2, 3, 4, 7, 6, 2, 2, 3, 4, 4 Schlusswort (Jannik Kossen, Maike Elisa Müller, Elena Natterer)
erschienen in Wie Maschinen lernen (Seite 241 - 245)  local web 
Kapitel
2019 local web  3, 1, 5, 1, 3, 7, 5, 2, 1, 5, 5, 4 Generative gegnerische Netzwerke (Jannik Kossen, Maike Elisa Müller)
erschienen in Wie Maschinen lernen (Seite 195 - 201)  local web 
Kapitel
2019 local web  Faltungsnetze (Jannik Kossen, Maike Elisa Müller)
erschienen in Wie Maschinen lernen (Seite 163 - 169)  local web 
Kapitel
2019 local web  Verzerrung-Varianz-Dilemma (Jannik Kossen, Maike Elisa Müller)
erschienen in Wie Maschinen lernen (Seite 119 - 123)  local web 
Kapitel
2019 local web  Entscheidungsbäume (Jannik Kossen, Maike Elisa Müller, Max Ruckriegel)
erschienen in Wie Maschinen lernen (Seite 111 - 118)  local web 
Kapitel
2019 local web  Fluch der Dimensionalität (Jannik Kossen, Fabrizio Kuruc)
erschienen in Wie Maschinen lernen (Seite 89 - 94)  local web 
Kapitel
2019 local web  Ausreißer (Jannik Kossen, Maike Elisa Müller)
erschienen in Wie Maschinen lernen (Seite 69 - 72)  local web 
Kapitel
2019 local web  Lineare Regression (Jannik Kossen, Maike Elisa Müller)
erschienen in Wie Maschinen lernen (Seite 61 - 67)  local web 
Kapitel
2019 local web  Klassifikation (Jana Aberham, Jannik Kossen)
erschienen in Wie Maschinen lernen (Seite 45 - 52)  local web 
Kapitel
2019 local web  Regression (Jannik Kossen, Maike Elisa Müller)
erschienen in Wie Maschinen lernen (Seite 39 - 43)  local web 
Kapitel
2019 local web  2, 3, 2, 2, 7, 4, 1, 1, 1, 4, 3, 11 Einleitung (Jannik Kossen, Fabrizio Kuruc, Maike Elisa Müller)
erschienen in Wie Maschinen lernen (Seite 3 - 10)  local web 
Kapitel

iconDefinitionen von Jannik Kossen

Generative Adversarial Network (GAN)
  • Die Idee hinter GANs ist außergewöhnlich, die Resultate beeindruckend und der Hype um sie groß: Zwei neuronale Netzwerke trainieren sich gegenseitig – oder, sie treten gegeneinander an – und werden dabei immer besser. Die Netzwerke nehmen unterschiedliche Rollen im Lernprozess ein. Das eine Netzwerk ist der sogenannte Diskriminator, das andere der Generator. Die Aufgabe des Diskriminators ist es, echte Daten von Fälschungen zu unterscheiden.
    von Jannik Kossen, Maike Elisa Müllerim Buch Wie Maschinen lernen (2019) im Text Generative gegnerische Netzwerke auf Seite 196
Künstliche Intelligenz (KI / AI)
  • Künstliche Intelligenz ist ein Oberbegriff, der immer dann benutzt wird, wenn Systeme Entscheidungen treffen, für die man vermutlich „Intelligenz“ besitzen muss – was auch immer das genau bedeutet. Diese recht schwammige Definition reicht nicht für philosophische Unterhaltungen über das Thema aus, aber sie drückt ganz gut aus, was wir unter künstlicher Intelligenz verstehen. Was unter diesen Begriff fällt, hängt allerdings auch von der Zeit ab, in der man sich befindet. Waren die Menschen vor einigen Jahren noch dazu bereit, Navigationssysteme als künstliche Intelligenz zu bezeichnen, so beeindrucken uns diese heutzutage schon lange nicht mehr. Vielleicht wird es selbstfahrenden Autos  dann bald ähnlich ergehen. Andere Definitionen von künstlicher Intelligenz beinhalten oft das Kriterium, dass „intelligente“ Systeme mit ihrer Umgebung interagieren müssen: Das heißt, Informationen aus der Umwelt aufzunehmen, auf diese zu reagieren, aus dieser zu lernen und daraus zukünftiges Verhalten abzuleiten.

    von Jannik Kossen, Fabrizio Kuruc, Maike Elisa Müllerim Buch Wie Maschinen lernen (2019) im Text Einleitung auf Seite 6
machine learning
  • Maschinelles Lernen ist der Sammelbegriff für alle Computerprogramme, deren Verhalten nicht fest einprogrammiert ist. Stattdessen gibt man fest vor, wie diese aus Daten lernen. Aus den Daten kann dann das Verhalten der Computerprogramme in die gewünschte Richtung geformt werden. Maschinelles Lernen ist daher eine sehr beliebte Möglichkeit, Systeme zu erschaffen, die über künstliche Intelligenz verfügen.
    von Jannik Kossen, Fabrizio Kuruc, Maike Elisa Müllerim Buch Wie Maschinen lernen (2019) im Text Einleitung auf Seite 7

iconBemerkungen von Jannik Kossen

Von Jannik Kossen gibt es im Biblionetz Bemerkungen zu:


Bücher
KB IB clear
Wie Maschinen lernen

Texte
KB IB clear
Ausreißer, Einleitung, Entscheidungsbäume, Faltungsnetze, Fluch der Dimensionalität, Generative gegnerische Netzwerke, Klassifikation, Lineare Regression, Regression, Schlusswort, Verzerrung-Varianz-Dilemma

iconZeitleiste

iconCoautorInnen

Jana Aberham, Fabrizio Kuruc, Maike Elisa Müller, Elena Natterer, Max Ruckriegel

iconZitationsnetz  Dies ist eine graphische Darstellung von im Biblionetz erfassten Zitationen und Co-Autorschaften.

Diese Grafik ist nur im SVG-Format verfügbar. Dieses Format wird vom verwendeteten Browser offenbar nicht unterstützt.

Diese SVG-Grafik fensterfüllend anzeigen

iconBegriffswolke von Jannik Kossen


Begriffswolke
APH KB IB clear
Algorithmusalgorithm, amazon, big databig data, Digitalisierung, facebook, Generative Adversarial Network (GAN), Klassifikation, Künstliche Intelligenz (KI / AI)artificial intelligence, Lernenlearning, machine learning, Maschinemachine, Modellemodel, Neuronales Netzneural network, No Free Lunch Theorem, Regression, Roboterrobot, Spamfilter, Wissenschaftsjournalismus,

iconZitationsgraph

Diese Grafik ist nur im SVG-Format verfügbar. Dieses Format wird vom verwendeteten Browser offenbar nicht unterstützt.

Diese SVG-Grafik fensterfüllend anzeigen

iconVolltexte

Auf dem WWW Einleitung: Artikel als Volltext bei Springerlink (lokal: PDF, 389 kByte; WWW: Link OK )
Auf dem WWW Fluch der Dimensionalität: Artikel als Volltext bei Springerlink (lokal: PDF, 328 kByte; WWW: Link OK )
Auf dem WWW Entscheidungsbäume: Artikel als Volltext bei Springerlink (lokal: PDF, 246 kByte; WWW: Link OK )
Auf dem WWW Verzerrung-Varianz-Dilemma: Artikel als Volltext bei Springerlink (lokal: PDF, 262 kByte; WWW: Link OK )
Auf dem WWW Faltungsnetze: Artikel als Volltext bei Springerlink (lokal: PDF, 337 kByte; WWW: Link OK )
Auf dem WWW Generative gegnerische Netzwerke: Artikel als Volltext bei Springerlink (lokal: PDF, 297 kByte; WWW: Link OK )
Auf dem WWW Schlusswort: Artikel als Volltext bei Springerlink (lokal: PDF, 154 kByte; WWW: Link OK )
Auf dem WWW Regression: Artikel als Volltext bei Springerlink (lokal: PDF, 347 kByte; WWW: Link OK )
Auf dem WWW Klassifikation: Artikel als Volltext bei Springerlink (lokal: PDF, 478 kByte; WWW: Link OK )
Auf dem WWW Lineare Regression: Artikel als Volltext bei Springerlink (lokal: PDF, 544 kByte; WWW: Link OK )
Auf dem WWW Ausreißer: Artikel als Volltext bei Springerlink (lokal: PDF, 324 kByte; WWW: Link OK )

iconAnderswo suchen  Auch im Biblionetz finden Sie nicht alles. Aus diesem Grund bietet das Biblionetz bereits ausgefüllte Suchformulare für verschiedene Suchdienste an. Biblionetztreffer werden dabei ausgeschlossen.

iconBiblionetz-History Dies ist eine graphische Darstellung, wann wie viele Verweise von und zu diesem Objekt ins Biblionetz eingetragen wurden und wie oft die Seite abgerufen wurde.