Die Welt wird zunehmend komplexer. Milliarden Computer, mobile Endgeräte, Autos, Fitnessarmbänder und Haushaltsgeräte sind vernetzt, kommunizieren und produzieren Daten. Schätzungen zufolge verdoppelt sich die generierte Datenmenge alle zwei Jahre. In den Daten finden sich Antworten auf viele Fragen – nicht nur im Handel, sondern auch in der Finanzindustrie, dem Gesundheitswesen, der Wettervorhersage, in der Verkehrsplanung oder der Ökologie.
Der Begriff „Big Data“ wird üblicherweise mit großen Datenmengen gleichgesetzt. Tatsächlich steckt dahinter aber nicht bloß eine wachsende Menge an Daten, sondern auch eine zunehmende Datenvielfalt und –geschwindigkeit. Big Data ist auch mehr als die Technologie zur Erhebung, Speicherung und Analyse der Daten – es ist eine neue, verbesserte Methode der Erkenntnisgewinnung. Durch Daten können wir die Wirklichkeit besser erkennen und so optimale, nachhaltige und richtige Entscheidungen treffen.
Schon heute ist das jährliche Datenwachstum kaum vorstellbar: Alle zwei Jahre verdoppelt sich die Datenmenge, für 2020 wird eine generierte digitale Datenmenge von über 40 Exabyte prognostiziert. Und trotzdem steckt diese Entwicklung erst noch in den Kinderschuhen: Zum Beispiel beginnt das „Internet of Things“ gerade erst Form anzunehmen. Große Mengen an Daten sind auch Grundlage für AI-Systeme (Artificial Intelligence), eine der nächsten großen Entwicklungen.
1 Exabyte =
1.000 Petabyte =
1.000.000 Terabyte =
1.000.000.000 Gigabyte =
1.000.000.000.000.000.000 Byte
Gleichzeitig verringern sich die Kosten für Speicherplatz (glücklicherweise): Im Jahr 2000 kostete 1GB Speicherplatz noch 15€, 2014 waren es noch ca. 0,06€.

Zentraler Treiber, Enabler, Katalysator, interner Lösungsanbieter – die Otto Group Business Intelligence im Portrait.

Smart Data: Was der Mittelstand von OTTO lernen kann – Gastbeitrag auf bigdatablog.de.

Wie Big Data die Zukunft des Einzelhandels prägt – Gastbeitrag auf ottogroupunterwegs.com.
Weitere Quelle: