Big Data - Was ist Big Data?
Der Begriffrückte in den vergangenen Jahren vermehrt in den Vordergrund und entwickelte sich zu einem der am weit verbreitetsten Begriffe für die systematische Analyse von Daten.
Dabei ist Big Data keine neue Methode oder Technologie im eigentlichen Sinne, sondern bildet einen Sammelbegriff für Analysetechniken und -methoden.
Es gibt drei große Schwerpunkte mit denen sich Big Data beschäftigt. Diese sind die Verarbeitung großer Datenmengen, die Aufbereitung unstrukturierter Daten und die Echtzeitanalyse.
Die Entwicklung von Big Data
Die Entwicklung von Big Data geht einher mit der wirtschaftlichen Nutzung von Datenanalysemethoden. Galten diese, durch die Ermittlung von Kundenbedürfnissen und dem effizienten Verwalten der Kundendaten, in den vergangenen Jahren als ein Wettbewerbsvorteil, so etabliert sich die Datenanalyse zu einen Standardwerkzeug zur Unternehmenssteuerung und -entwicklung.
Aufgrund der vielfältigen Angebote und alternativen Software as a Service-Anbieter, können auch mittlere und kleine Unternehmen darauf zurückgreifen ohne hohen Investitionsaufwand und Wartungskosten. Diese Tatsache hat der gesamten Entwicklung von Big Data einen enormen Schub gegeben. Wenngleich meist der Eindruck entsteht, dass Big Data eine Erfindung der Neuzeit ist, da das Datenaufkommen erst in den letzten Jahren sehr stark zugenommen hat. Diese Wahrnehmung kommt vor allem von der bisher geringen Verbreitung und den begrenzten Einsatzmöglichkeiten in den Unternehmen.
Um Datenmengen in den Dimensionen von Google, Facebook und Co. Herr zu werden, wurden spezielle Datenbanktechnologien entwickelt, die eine schnelle Verarbeitung der Daten ermöglichen. Die meisten Unternehmen benötigen Hadoop, MongoDB etc. meist nicht. Hier können bewährte Konzepte des Data Warehousing und der Business Intelligence viel effizienter und kostengünstiger eingesetzt werden.
Einsatzgebiete für Big Data-Szenarien
Im Zusammenhang mit Big Data respektive einigen Themen aus diesem Gebiet, finden die Analysetechniken und -methoden Anwendung in verschiedenen Bereichen des alltäglichen und wirtschaftlichen Lebens. Zwei wichtige und sehr spannende Themenbereiche sind hierbei die Ermittlung und Verarbeitung von Geodaten und die industrielle Erfassung von Sensordaten und Produktinformationen, das seit einiger Zeit unter dem Begriff Industrie 4.0 zusammengefasst wird.
Weiterführende Artikel
Heutige Technologien, wie das Internet der Dinge (IoT), Social Media oder Web-Applikationen, generieren eine immer größer werdende Menge an unterschiedlichsten Daten. Big Data beschreibt das Themenfeld rund um die Sammlung, Speicherung und Verarbeitung von Daten, die mit traditionellen Datenbanksystemen nicht behandelt werden können. Dies betrifft insbesondere die Nutzbarkeit unstrukturierter Daten wie Texte, Bilder oder Videos, die mit traditionellen Systemen oft nur sehr umständlich gehandhabt werden können. Ein zentrales Thema ist dabei die Möglichkeit der parallelisierten Datenverarbeitung, wodurch der Rechenaufwand auf mehrere Rechenzentren verteilt werden kann. Der Begriff Fast Data beschreibt die Verarbeitung und Analyse von Daten in Echtzeit. Dies ist besonders in Anwendungsgebieten wie IoT von Nutzten, wo besonders schnell Entscheidungen getroffen werden müssen.
Unternehmen aus den unterschiedlichsten Branchen haben täglich mit großen Datenmengen aus verschiedensten Bereichen zu tun. Um am Markt wettbewerbsfähig zu bleiben, müssen sie fähig sein, diese Daten schnell und effizient auswerten zu können, um daraus Rückschlüsse auf strategische Unternehmensentscheidungen zu ziehen. Mit Big-Data-Analysen können so zum Beispiel Prozesse optimiert, erforderliche Präventionsmaßnahmen identifiziert und kundenindividuelle Bedürfnisse erkannt werden.
Big-Data-Lösungen ermöglichen viele Vorteile für Unternehmen:
Angeblich war es Mitte der neunziger Jahre bei einem Mittagessen in der Kantine des Computerherstellers Silicon Graphics, als der Informatiker John Mashey Big Data erfand. Streng genommen ist Big Data keine technische Erfindung, sondern lediglich ein Begriff für ein Phänomen, dass sich bereits damals abzeichnete.
Computer, so Mashey, würden bald an ihre Grenzen bei der Verarbeitung von Daten stoßen, weil das Volumen exponentiell wachse und die Vielfalt der Datenkategorien schlichtweg explodiere. Den Computerhersteller Silicon Graphics gibt es nicht mehr, aber wir wissen heute, dass dessen Informatik-Genie Mashey mit seiner Einschätzung richtig lag.
Datenmenge verdoppelt sich alle zwei Jahre
Alle zwei Jahre wird sich die Menge der weltweit erzeugten Daten in dem kommenden zehn Jahren verdoppeln. Ein Datenvolumen von 45.000 Exabyte werden wir bis 2020 produzieren. Zum Vergleich: Für das Speichern aller Wörter, die die gesamte Menschheit jemals gesprochen hat, würde eine Kapazität von gerade einmal 5 Exabyte ausreichen.
Obwohl so mancher Skeptiker im Big Data-Begriff einen überzogenen Hype sieht, bleibt Big Data als reales Phänomen also nach wie vor aktuell. Auf der Suche nach einer Definition zeichnen sich unter Forschern, Anbietern und Anwendern zwei Perspektiven ab:
Daten-Ebene: Big Data beschreibt große, unstrukturierte Datenmengen, mit der herkömmliche Methoden der Datenverarbeitung überfordert sind.
Big Data beschreibt große, unstrukturierte Datenmengen, mit der herkömmliche Methoden der Datenverarbeitung überfordert sind. Technologie-Ebene: Als Sammelbegriff bezeichnet Big Data neue Technologien, mit deren Hilfe sich große Mengen an Daten verarbeiten lassen.
Beide Perspektiven haben ihre Daseinsberechtigung, zeigen aber, wie generisch der Big Data-Begriff nach wie vor ist. Vertreter einer dritten Sichtweise versuchen sich gar nicht erst an einer Definition. Für sie ist Big Data weniger ein Fachbegriff, sondern beschreibt ein universelles Phänomen, das eine logische Konsequenz der Digitalisierung ist.
Das weltweit erzeugte Datenvolumen verdoppelt sich alle zwei Jahre und erreicht 2020 45.000 Exabyte. Klick um zu tweeten
Um dieses Phänomen besser zu verstehen, nähern sie sich der Bedeutung von Big Data über fünf Merkmale an, die Daten und den Umgang mit Daten in einer zunehmend digitalisierten Welt auszeichnen:
Menge: Menschen tauschen tagtäglich Unmengen an Daten aus. Unternehmen und Betreiber von Online-Plattformen speichern und verarbeiten Massendaten in einem Umfang, der sich erst durch neue Technologien wie Hadoop bewältigen lässt.
Menschen tauschen tagtäglich Unmengen an Daten aus. Unternehmen und Betreiber von Online-Plattformen speichern und verarbeiten Massendaten in einem Umfang, der sich erst durch neue Technologien wie Hadoop bewältigen lässt. Geschwindigkeit: Die Geschwindigkeit, in der Daten einerseits erzeugt und andererseits verarbeitet werden ist so hoch wie nie. Die Verarbeitung von Daten in Echtzeit ist nicht mehr nur ein Buzzword, sondern in vielen Bereichen Realität.
Die Geschwindigkeit, in der Daten einerseits erzeugt und andererseits verarbeitet werden ist so hoch wie nie. Die Verarbeitung von Daten in Echtzeit ist nicht mehr nur ein Buzzword, sondern in vielen Bereichen Realität. Vielfalt: Durch die Möglichkeit, Daten über jedes Endgerät, zu jeder Zeit und an jedem Ort zu erzeugen, hat sich die Bandbreite der Daten vergrößert. Daten entstehen in den unterschiedlichsten Formaten – Text, Bild, Video, Audio, Zahlen.
Durch die Möglichkeit, Daten über jedes Endgerät, zu jeder Zeit und an jedem Ort zu erzeugen, hat sich die Bandbreite der Daten vergrößert. Daten entstehen in den unterschiedlichsten Formaten – Text, Bild, Video, Audio, Zahlen. Variabilität: Neben der zunehmenden Geschwindigkeit und Vielfalt, in der Daten erzeugt werden, wächst die Variabilität. Daten sind häufig unstrukturiert, inkonsistent und das Tempo, in dem sie erzeugt werden, kann extrem schwanken.
Neben der zunehmenden Geschwindigkeit und Vielfalt, in der Daten erzeugt werden, wächst die Variabilität. Daten sind häufig unstrukturiert, inkonsistent und das Tempo, in dem sie erzeugt werden, kann extrem schwanken. Komplexität: Daten kommen aus den unterschiedlichsten Applikationen, Endgeräten und Systemen. Ihre Verknüpfung und die Einordnung in Hierarchiemodelle ist eine der größten Herausforderungen für die Datenverarbeitung.
Big Data ist kein Fachbegriff. Big Data beschreibt ein universelles Phänomen, das eine logische Konsequenz der Digitalisierung ist. Klick um zu tweeten
Vier Trends, durch die Big Data zum „Business as Usual“ wird
Während die Big Data-Definition viel Spielraum lässt, ist die Anwendung im geschäftlichen Alltag längst Normalität geworden. „The world’s most valuable resource is no longer oil, but data“, titelte der Economist etwas pathetisch in einem sehr lesenswerten Beitrag.
Daten sind der Schmierstoff für die Geschäftsprozesse vieler Unternehmen. Sie ziehen daraus Mehrwert, treiben Innovationen voran, implementieren Zukunftsstrategien. Die genannten fünf Merkmale skizzieren aber gleichzeitig, welchen Herausforderungen sich Unternehmen in der Datenverarbeitung gegenüber sehen.
Um wirklich messbaren Mehrwert aus Big Data zu ziehen, müssen Unternehmen Ihre Prozesse und Tools für den Umgang mit Daten weiter ausbauen. Dabei zeichnen sich vier Entwicklungen ab, die einen guter Indikator für die Professionalisierung von Big Data sind:
Die Rolle des Chief Data Officer (CDO) wird in vielen Unternehmen etabliert. 2018 werden 50 Prozent der CDOs direkt an den CEO eines Unternehmens berichten. Daten sind auf dem C-Level angekommen – diese Priorisierung wird Big Data guttun. Forrester geht davon aus, dass 2018 80 Prozent aller Unternehmen auf Insights Service Provider setzen. Die Analysten prognostizieren einen florierenden Markt für IaaS (Insights-as-a-Service) – Angebote, die Unternehmen bei der Auswertung, Kategorisierung und Analyse von Daten unterstützen. Die Interaktionen mit Kunden ist eine der ergiebigsten Datenquellen, aber auch eine, die mit unstrukturierten Daten eine der größten Herausforderungen für Unternehmen darstellt. Gartner prognostiziert, dass bis 2020 85 Prozent aller Kundeninteraktionen über künstlich intelligente Chatbots abgewickelt werden, die die Datenqualität verbessern und eine effizientere Auswertung ermöglichen. Überhaupt werden bei der Auswertung von Daten zunehmend Algorithmen auf Basis von Machine Learning zum Einsatz kommen. Anders, so das Tech-Magazin CIO, ließe sich die wachsende Datenflut kaum mehr bewältigen. Unternehmen, die diese Investitionen wegen fehlender Kompetenz und Ressourcen nicht selbstständig umsetzen können, werden auf Partnerschaften mit externen Big Data-Spezialisten setzen.
Big Data ist unser Handwerkszeug: Mit unserer Analytics Plattform analysieren tagtäglich viele Millionen Datensätze im Auftrag von Finanzinstituten und FinTechs. Besuchen Sie unsere Produktseite und erfahren Sie, wie Big Data einen Mehrwert für Ihr Business schafft.