/ en / Traditional / help

Beats Biblionetz - Begriffe

big data big data

iconBiblioMap Dies ist der Versuch, gewisse Zusammenhänge im Biblionetz graphisch darzustellen. Könnte noch besser werden, aber immerhin ein Anfang!

Diese Grafik ist nur im SVG-Format verfügbar. Dieses Format wird vom verwendeteten Browser offenbar nicht unterstützt.

Diese Grafik fensterfüllend anzeigen (SVG)

iconDefinitionen

Die Zukunft der vernetzten GesellschaftBezeichnet Datenmengen, die zu gross, zu komplex oder zu schnelllebig sind, um sie mit klassischen Methoden der Datenverarbeitung auszuwerten.
Von Karin Frick, Bettina Höchli im Buch Die Zukunft der vernetzten Gesellschaft (2014) auf Seite  66
Diskriminierungsrisiken durch Verwendung von AlgorithmenDie Entwicklungen, die unter dem unscharfen Sammelbegriff „Big Data“ gefasst werden, zielen vor allem ab auf die Zusammenführung und Verarbeitung von großen und unterschiedlichen Datensätzen, d. h. die in ihren Formaten heterogen sein können (z. B. Zahlen-, Bild-, Text-, Video-, Audioformate) und in unterschiedlichen Kontexten erfasst wurden
Von Carsten Orwat im Buch Diskriminierungsrisiken durch Verwendung von Algorithmen (2019)
Big Data: Chancen, Risiken und Handlungsbedarf des BundesDer Begriff „Big Data“ bezeichnet die Entwicklung und den Einsatz von Technologien, welche es erlauben, dem richtigen Nutzer zur rechten Zeit die richtigen Informationen aus den in unserer Gesellschaft seit längerem exponentiell anwachsenden Datenbeständen zu liefern. Dabei besteht neben der Herausforderung, immer grössere Datenvolumen in immer kürzerer Zeit zu verarbeiten, auch die Schwierigkeit, mit der zunehmenden Heterogenität der Formate, der Komplexität und der Verlinkung der Daten fertig zu werden.
Von Thomas Jarchow, Beat Estermann im Buch Big Data: Chancen, Risiken und Handlungsbedarf des Bundes (2015) auf Seite  3
Big Data: Chancen, Risiken und Handlungsbedarf des BundesZusammenfassend können wir unter Big Data die Entwicklung und den Einsatz von Technologien verstehen, welche es erlauben, dem richtigen Nutzer1 zur rechten Zeit die richtigen Informationen aus den seit längerem exponentiell anwachsenden Datenbeständen zu liefern. Dabei besteht neben der Herausforderung, immer grössere Datenvolumen in immer kürzerer Zeit zu verarbeiten, auch die Schwierigkeit, mit der zunehmenden Heterogenität der Formate, der Komplexität und der Verlinkung der Daten fertig zu werden (Chen, Chiang, & Storey, 2012; Lycett, 2013).
Von Thomas Jarchow, Beat Estermann im Buch Big Data: Chancen, Risiken und Handlungsbedarf des Bundes (2015) auf Seite  7
Login 195/196Während der Begriff Big Data sehr geläufig ist, gibt es keine einheitliche Definition dessen; sie wird abwechselnd in Bezug zu Datensätzen, Datenbanken oder gar der Beschreibung einer auf Daten basierenden Technologie synonym verwendet. In diesem Beitrag soll diejenige Definition angenommen werden, die sich streng auf Datenmengen bezieht. Unter Big Data werden Datenmengen betrachtet, die weder manuell noch durch herkömmliche Verarbeitungstechnologien verwendet werden können (vgl. Gartner Glossary, 2020). Die drei Haupteigenschaften von Big Data beziehen sich auf den Umfang (Volume), die Schnelllebigkeit (Velocity) und die Heterogenität (Variety) von Daten.
Von Ziawasch Abedjan im Journal Login 195/196 im Text Big Data (2021) auf Seite  13
Big Data und MedienbildungWas aber bezeichnet „Big Data“? Häufig wird Big Data über die drei „V“-Begriffe charakterisiert: „Volume“ im Sinne der Masse an Daten, zu deren Bearbeitung konventionelle Datenbanksysteme nicht mehr ausreichen und verteilte, parallele Systeme eingesetzt werden (z. B. Hadoop und MapReduce). „Velocity“ bezeichnet die Geschwindigkeit bzw. Beschleunigung des Datenverkehrs bis hin zur Analyse in Echtzeit, und mit „Variety“ ist die vielfältige, auch unstrukturierte Beschaffenheit der Daten jedweden Formats gemeint (Text-, Bild-, Audio- und Videodaten, Metadaten usw.). Ergänzt wird diese Liste der V-Begriffsmerkmale bisweilen durch „Value“, also der bereits angesprochenen, monetären Verwertung, und „Veracity“, der Unsicherheit und Unschärfe der Daten und ihrer Analysen.
Von Harald Gapski im Buch Big Data und Medienbildung im Text Big Data und Medienbildung - eine Einleitung (2015)
Big Data in EducationAlthough big data has become a popular term and a hyped concept in recent years, definitional clarity in relation to big data is surprisingly elusive. In technical terms, big data refers to data sets that are huge in volume (at the scale of petabytes, exabytes and zettabytes); highly diverse in type and nature; generated continuously at great velocity in or near real-time; exhaustive in scope (enabling the capture of entire populations – or ‘n=all’ – rather than sampled selections); fine-grained in resolution at the level of indexing individual units; combinable with other networks of datasets; and flexible and scalable enough for new fields to be added and to expand in size rapidly (Boyd and Crawford 2013; Mayer-Schönberger and Cukier 2013; Kitchin 2014a, 2014b). Kitchin and McArdle (2015) suggest that exhaustivity and velocity are perhaps the two most key traits of big data systems. These qualities of big data are in contrast to earlier methods of data collection and analysis that progressed using data produced in tightly controlled ways using sampling techniques that limited their scope, variety, temporality and size (Kitchin and McArdle 2015).
Von Ben Williamson im Buch Big Data in Education (2017) im Text Conceptualizing Digital Data

iconBemerkungen

Gerd GigerenzerBig Data eröffnet der Scharfschützen-Methode ein ganz neues Spielfeld. Nur dass der Scharfschütze hier nicht erst schießen muss, um die Zielscheibe so um die Kugellöcher zu malen, dass das Zentrum in der Mitte liegt. Es gibt nämlich schon Millionen Kugellöcher. Daher braucht der Scharfschütze nur mit einem schnellen Suchalgorithmus nach einem Muster Ausschau zu halten, das den Eindruck hervorruft, die Zielscheibe sei zuerst aufgestellt worden und die Löcher kamen nachher. Abermals ist das nicht Big Data vorzuwerfen, sondern der Art, wie es verwendet wird. Man kann natürlich auf eine unerwartete Korrelation stoßen, aber bevor man sie als Faktum verkündet, sollte man unabhängig überprüfen, ob sie auch für andere Zeitpunkte oder Menschengruppen gilt. Lässt man diesen Schritt aus und präsentiert das Zufallsmuster, über das man gestolpert ist, als wissenschaftliches Ergebnis, folgt man der Strategie des Scharfschützen.
Von Gerd Gigerenzer im Buch Klick (2021) im Text Ein Datenpunkt kann Big Data schlagen

iconVerwandte Objeke

icon
Verwandte Begriffe
(Cozitation)
Datendata, Algorithmusalgorithm, Digitalisierung, Internet der DingeInternet of Things, machine learning
icon
Verwandte Aussagen
big data gefährdet Privatsphäre
big data fördert die Arbeitslosigkeit
Digitalisierung ermöglicht big data
big data fördert machine learning

CoautorInnenlandkarte

Diese Grafik ist nur im SVG-Format verfügbar. Dieses Format wird vom verwendeteten Browser offenbar nicht unterstützt.

Diese Grafik fensterfüllend anzeigen (SVG)

iconRelevante Personen

iconHäufig erwähnende Personen

iconHäufig co-zitierte Personen

iconStatistisches Begriffsnetz  Dies ist eine graphische Darstellung derjenigen Begriffe, die häufig gleichzeitig mit dem Hauptbegriff erwähnt werden (Cozitation).

iconBlahfasel-Generator (Beta)

Der Schlüsselbegriff big data - verstanden von Ralf Lankau
Kaum eine wissenschaftliche Veranstaltung, an der nicht das Thema "big data" beschrieben wird. Im folgenden wird aus diesem Grund versucht, das Thema näher zu skizzieren.
Ein erstes Mal wurde das Thema vor 14 Jahren diskutiert. Eine lange Zeit, in der viel geschehen ist. Allgemein gilt Viktor Mayer-Schönberger als häufig zitierter Wissenschafter für dieses Thema. Doch auch Kenneth Cukier hat diesbezüglich einen guten Ruf.
Hilfreich ist ein Blick auf die zahlreichen Definitionen des Begriffs. Die wichtigste Definition des Begriffs lautet: "Was aber bezeichnet „Big Data“? Häufig wird Big Data über die drei „V“-Begriffe charakterisiert: „Volume“ im Sinne der Masse an Daten, zu deren Bearbeitung konventionelle Datenbanksysteme nicht mehr ausreichen und verteilte, parallele Systeme eingesetzt werden (z. B. Hadoop und MapReduce). „Velocity“ bezeichnet die Geschwindigkeit bzw. Beschleunigung des Datenverkehrs bis hin zur Analyse in Echtzeit, und mit „Variety“ ist die vielfältige, auch unstrukturierte Beschaffenheit der Daten jedweden Formats gemeint (Text-, Bild-, Audio- und Videodaten, Metadaten usw.). Ergänzt wird diese Liste der V-Begriffsmerkmale bisweilen durch „Value“, also der bereits angesprochenen, monetären Verwertung, und „Veracity“, der Unsicherheit und Unschärfe der Daten und ihrer Analysen." (Harald Gapski, 2015). ...

icon10 Vorträge von Beat mit Bezug

iconEinträge in Beats Blog

iconErwähnungen auf anderen Websites im Umfeld von Beat Döbeli Honegger

Website Webseite Datum
Grundlagen der Informatik 16/17Datenstrukturen30.06.2016
Informatikdidaktik-Wiki der PHSZBig Data22.05.2018

iconZeitleiste

icon311 Erwähnungen  Dies ist eine nach Erscheinungsjahr geordnete Liste aller im Biblionetz vorhandenen Werke, die das ausgewählte Thema behandeln.

iconAnderswo suchen  Auch im Biblionetz finden Sie nicht alles. Aus diesem Grund bietet das Biblionetz bereits ausgefüllte Suchformulare für verschiedene Suchdienste an. Biblionetztreffer werden dabei ausgeschlossen.

iconBiblionetz-History Dies ist eine graphische Darstellung, wann wie viele Verweise von und zu diesem Objekt ins Biblionetz eingetragen wurden und wie oft die Seite abgerufen wurde.