Große Daten

Big Data: Die Verdatung der Welt

Das sind die Big Data Trends 2020

Ausblicke und Prognosen Das sind die Big Data Trends 2020

Big Data und Analytics sind eine wichtige Ressource für Unternehmen, um in einem hart umkämpften Wettbewerbsumfeld zu bestehen. Folgende Big-Data-Trends werden sich in diesem Jahr auf die aktuellen IT-Landschaften auswirken.

Zu den wichtigsten Trends für 2020 gehören Wide Data, DataOps und Self-Service Analytics sowie das „Shazamen“ von Daten. (Bild: gemeinfrei / Pixabay

Datenquellen und KI-Anwendungen werden immer komplexer bzw. umfassender. Daher wird 2020 ein weiteres Jahr für Innovationen und Weiterentwicklungen im Big-Data-Bereich. Hier sind die wichtigsten Trends zusammengefasst:

Aus Big Data wird Wide Data

Skalierbare Cloud-Konzepte heben in Big-Data-Umgebungen die limitierenden lokalen IT-Infrastrukturen der Unternehmen auf. Ein großes Thema des Jahres lautet: „Wide Data“. Das heißt, die IT betrachtet verstärkt die fragmentierten, weitverzweigten Datenstrukturen, die durch uneinheitliche oder fehlerhaft formatierte Daten und Datensilos entstanden sind.

So haben sich alleine in den vergangenen fünf Jahren die Anzahl der Datenbanken, die es für unterschiedlichste Datenarten gibt, von rund 160 auf 340 mehr als verdoppelt. Profitieren werden vor allem die Unternehmen, denen es in Zukunft gelingt, Daten in einer Synthese sinnvoll zusammenzuführen.

Datenkompetenz als Service-Leistung

Eine Kombination von Datensynthese und Datenanalyse werden die effektive Nutzung der Daten weiterentwickeln. Wesentlich wird dabei sein, dass die Anwender beim Lesen, Arbeiten, Analysieren und Kommunizieren der Daten Hilfestellungen erhalten.

Dafür müssen die Unternehmen die Datenkenntnisse ihrer Mitarbeiter gezielt fördern, indem sie Partner einsetzen, die Software, Training und auch Support im SaaS-Modell (Software as-a-Serivce) offerieren. Dadurch wird nicht nur das Daten-Know-how verbessert, indem DataOps und Self-Service Analytics optimal ineinandergreifen, sondern es kann sich auch ein datengestütztes Entscheiden etablieren.

DataOps und Self-Service Analytics

Data Analytics wird bereits auf der Business-Ebene mit modernen Self-Services Tools erfolgreich praktiziert. Für das Datenmanagement steht jetzt mit den DataOps zusätzlich eine agile Lösung parat. Damit sind die Anwender nun in der Lage, mit automatisierten und prozessorientierten Technologien die Geschwindigkeit und Qualität des Datenmanagements deutlich zu steigern.

Die Basis dafür bilden Technologien wie zum Beispiel Echtzeit-Datenintegration, Change Data Capture (CDC) und Streaming Data Pipelines. Auf diese Weise bilden DataOps im operativen Datenmanagement und Self-Service Analytics auf der Business-Seite einen fließenden Prozess über die komplette Informations-Wertschöpfungskette. Mit DataOps und Self-Services, einer der großen Trends für 2020, lassen sich unternehmensweit verstreute Daten effektiv nutzen.

„Shazamen“ von Daten

Obwohl Data Analytics in den vergangenen Jahren erstaunliche Fortschritte verbuchen konnte, sehen Experten den größten Meilenstein noch vor uns: das Shazamen von Daten. Was bislang als beliebte App am Handy unter „Shazam“ bekannt war, die laufende Songs erkannte und Informationen dazu bereit stellte, wird nun auf weitere Bereiche ausgedehnt. Das heißt, 2020 werden wir Shazamen als Daten-Lösungen auch für Unternehmen erleben. Algorithmen werden die Analyse-Systeme dabei unterstützen, Datenmuster und Anomalien zu identifizieren sowie neue Daten für weitere Analysen zu optionieren.

Die Experten sind sich sicher: Daten-Lösungen werden in Zukunft nicht mehr nur Suche, Dashboards und Visualisierung umfassen, sondern es wird alternative Eingabetechniken geben, die mit digitalen Geräten kommunizieren wie etwa über Bewegungen oder auch Sensoren. Im Shazamen liegen enorme Chancen, wobei es aber ebenso Gefahren des Missbrauchs birgt.

Verbesserte Sprachverarbeitung

Big Data, KI, IoT und maschinelles Lernen (ML) ermöglichen eine erweiterte Dimension der menschlichen und technologischen Interaktion. Mithilfe von Natural Language Processing (NLP) sind dann Programme in der Lage, die menschliche Sprache so zu verstehen, wie sie tatsächlich gesprochen oder geschrieben wird.

Da über NLP die Inhalte in menschlicher Sprache kommuniziert werden, können sogar ungeübte Anwender mit solchen intelligenten Systemen interagieren. NLP ist unter anderem auch ein leistungsfähiges Tool, um die Bedürfnisse von Kunden zu identifizieren und daraus Produkte und Dienstleistungen zu entwickeln.

Intelligente Metadaten-Kataloge

Metadaten sind strukturierte Daten, die Informationen über Merkmale anderer Daten beinhalten. Damit lassen sich sehr große Datenmengen bzw. Rohdaten in den verteilten und vielfältigen Datenbeständen lokalisieren, erfassen, synthetisieren und vor allem automatisiert weiterverarbeiten.

Hierzu kommen intelligente, auf maschinellem Lernen basierende Funktionen für die Datenaufbereitung, Zusammenarbeit bei Datenprojekten und für einen optimierten Arbeitsablauf zum Einsatz. Da der gesamte Kontext erhalten bleibt, sind die Informationen besser zugänglich und können ebenso für zukünftige Projekte genutzt werden.

Jetzt Newsletter abonnieren Täglich die wichtigsten Infos zu Big Data, Analytics & AI Geschäftliche E-Mail Bitte geben Sie eine gültige E-Mailadresse ein. Newsletter abonnieren Mit Klick auf „Newsletter abonnieren“ erkläre ich mich mit der Verarbeitung und Nutzung meiner Daten gemäß Einwilligungserklärung (bitte aufklappen für Details) einverstanden und akzeptiere die Nutzungsbedingungen. Weitere Informationen finde ich in unserer Datenschutzerklärung. Aufklappen für Details zu Ihrer Einwilligung Stand vom 30.10.2020 Es ist für uns eine Selbstverständlichkeit, dass wir verantwortungsvoll mit Ihren personenbezogenen Daten umgehen. Sofern wir personenbezogene Daten von Ihnen erheben, verarbeiten wir diese unter Beachtung der geltenden Datenschutzvorschriften. Detaillierte Informationen finden Sie in unserer Datenschutzerklärung. Einwilligung in die Verwendung von Daten zu Werbezwecken Ich bin damit einverstanden, dass die Vogel IT-Medien GmbH, Max-Josef-Metzger-Straße 21, 86157 Augsburg, einschließlich aller mit ihr im Sinne der §§ 15 ff. AktG verbundenen Unternehmen (im weiteren: Vogel Communications Group) meine E-Mail-Adresse für die Zusendung von redaktionellen Newslettern nutzt. Auflistungen der jeweils zugehörigen Unternehmen können hier abgerufen werden. Der Newsletterinhalt erstreckt sich dabei auf Produkte und Dienstleistungen aller zuvor genannten Unternehmen, darunter beispielsweise Fachzeitschriften und Fachbücher, Veranstaltungen und Messen sowie veranstaltungsbezogene Produkte und Dienstleistungen, Print- und Digital-Mediaangebote und Services wie weitere (redaktionelle) Newsletter, Gewinnspiele, Lead-Kampagnen, Marktforschung im Online- und Offline-Bereich, fachspezifische Webportale und E-Learning-Angebote. Wenn auch meine persönliche Telefonnummer erhoben wurde, darf diese für die Unterbreitung von Angeboten der vorgenannten Produkte und Dienstleistungen der vorgenannten Unternehmen und Marktforschung genutzt werden. Falls ich im Internet auf Portalen der Vogel Communications Group einschließlich deren mit ihr im Sinne der §§ 15 ff. AktG verbundenen Unternehmen geschützte Inhalte abrufe, muss ich mich mit weiteren Daten für den Zugang zu diesen Inhalten registrieren. Im Gegenzug für diesen gebührenlosen Zugang zu redaktionellen Inhalten dürfen meine Daten im Sinne dieser Einwilligung für die hier genannten Zwecke verwendet werden. Recht auf Widerruf Mir ist bewusst, dass ich diese Einwilligung jederzeit für die Zukunft widerrufen kann. Durch meinen Widerruf wird die Rechtmäßigkeit der aufgrund meiner Einwilligung bis zum Widerruf erfolgten Verarbeitung nicht berührt. Um meinen Widerruf zu erklären, kann ich als eine Möglichkeit das unter https://support.vogel.de abrufbare Kontaktformular nutzen. Sofern ich einzelne von mir abonnierte Newsletter nicht mehr erhalten möchte, kann ich darüber hinaus auch den am Ende eines Newsletters eingebundenen Abmeldelink anklicken. Weitere Informationen zu meinem Widerrufsrecht und dessen Ausübung sowie zu den Folgen meines Widerrufs finde ich in der Datenschutzerklärung, Abschnitt Redaktionelle Newsletter.

Aufgrund steigender Nachfrage für intelligente Metadaten-Kataloge, werden sie 2020 zunehmend mit KI ausgestattet, um so eine aktive, adaptive und schnellere Datenbereitstellung zu realisieren.

Erforschung des Klimawandels und des Universums

Big-Data-Lösungen können einen entscheidenden Beitrag zur Debatte um den Klimawandel leisten. Wobei das Datenmaterial von meteorologischen Instituten, verschiedenen Forschungseinrichtungen für Geowissenschaften oder Teilchenphysik bis hin zu Datensätzen aus der Ozeanforschung stammen können. Damit Ereignisse vom Urknall bis zum gegenwärtigen Zeitpunkt des Universums approximiert werden können, sind unvorstellbar große Mengen an Inputs einzubeziehen.

Echtzeitanalysen werden interessanter

Datenlastiges Streaming bzw. Live-Datenanalyse-Streamings werden 2020 deutlich an Zugkraft gewinnen – nicht nur für große, global relevante Sportarten. So könnte die Finanzwelt Petabytes an Live-Daten durch komplizierte Netzwerkverbindungen leiten und mit unzähligen anderen Geräten kommunizieren.

Aber auch Organisationen, die kritische Forschungen zu Erdbeben, El Niño und anderen Naturkatastrophen überwachen, werden zunehmend auf Big Data mithilfe von Roboter-Prozessautomatisierung (RPA), KI und maschinellem Lernen angewiesen sein, um zuverlässige Vorhersagen zu erhalten.

Simulation von Ölfeldern

Die Mineralölindustrie gehört zu den großen Profiteuren der Big-Data-Analysen und einer beispiellosen Rechenleistung. Ölfirmen erhalten dadurch ein besseres Instrumentarium, um enorme Datenmengen zu evaluieren, die von seismischen Sensoren erzeugt werden.

High-Fidelity-Bildgebungstechnologien und neue Algorithmen zur Modellsimulation bieten wesentlich mehr Klarheit hinsichtlich des Potenzials der untersuchten Reservoire. Mit präziseren Informationen minimieren sie das Risiko, Ölreservoirs zu identifizieren sowie abzubilden und optimieren gleichzeitig die Management- und Betriebskosten.

(ID:46350525)

Die 10 wichtigsten Data & Analytics Trends 2021

Trend Nr. 1: Intelligentere, verantwortungsvollere, skalierbare KI

Eine intelligentere, verantwortungsvollere, skalierbare KI wird bessere Lernalgorithmen, interpretierbare Systeme und kürzere Zeit bis zur Wertschöpfung ermöglichen. Organisationen werden anfangen, viel mehr von KI-Systemen zu verlangen, und sie müssen herausfinden, wie die Technologien zu skalieren sind – etwas, das immer noch eine Herausforderung darstellt.

Obwohl traditionelle KI-Techniken stark auf historische Daten angewiesen sein können, sind historische Daten angesichts der Tatsache, wie COVID-19 die Geschäftslandschaft verändert hat, möglicherweise nicht mehr relevant. Das bedeutet, dass KI-Technologie in der Lage sein muss, mit weniger Daten über „Small-Data“-Techniken und adaptives maschinelles Lernen zu arbeiten. Diese KI-Systeme müssen auch die Privatsphäre schützen, die staatlichen Vorschriften einhalten und die Voreingenommenheit reduzieren, um ethische KI zu unterstützen.

Trend Nr. 2: Zusammensetzbare Data und Analytics

Das Ziel von zusammensetzbarer Data und Analytics ist es, Komponenten aus mehreren Daten-, Analyse- und KI-Lösungen für eine flexible, benutzerfreundliche und nutzbare Erfahrung zu verwenden, die es Führungskräften ermöglicht, Dateneinblicke mit Geschäftsaktionen zu verbinden. Anfragen von Gartner-Kunden deuten darauf hin, dass die meisten großen Organisationen mehr als ein „Unternehmensstandard“-Analyse- und Business-Intelligence-Tool haben.

Die Erstellung neuer Anwendungen aus den gebündelten Geschäftsfunktionen verschiedener Bereiche fördert die Produktivität und Agilität. Zusammensetzbare Data und Analytics werden nicht nur die Zusammenarbeit fördern und die Analysefunktionen der Organisation weiterentwickeln, sondern auch den Zugang zu Analysen verbessern.

Trend Nr. 3: Data Fabric als Grundlage

Da Daten immer komplexer werden und das Digital Business immer schneller wird, ist Data Fabric die Architektur, die zusammensetzbare Data und Analytics und ihre verschiedenen Komponenten unterstützt.

Data Fabric reduziert die Zeit für das Integrationsdesign um 30 %, die Bereitstellung um 30 % und die Wartung um 70 %, da die Technologiedesigns auf die Fähigkeit zur Verwendung/Wiederverwendung und Kombination verschiedener Datenintegrationsstile zurückgreifen. Darüber hinaus können Data Fabrics vorhandene Fähigkeiten und Technologien von Data Hubs, Data Lakes und Data Warehouses nutzen und gleichzeitig neue Ansätze und Tools für die Zukunft schaffen.

Trend Nr. 4: Von Big Data zu Small und Wide Data

Small und Wide Data lösen, im Gegensatz zu Big Data, eine Reihe von Problemen für Organisationen, die sich mit zunehmend komplexen Fragen zu KI und Herausforderungen bei knappen Datennutzungsfällen beschäftigen müssen. Wide Data – unter Verwendung von „X Analytics“-Techniken – ermöglichen die Analyse und Synergie einer Vielzahl kleiner und vielfältiger („wide“), unstrukturierter und strukturierter Datenquellen, um das kontextbezogene Bewusstsein und die Entscheidungsfindung zu verbessern. Small data, wie der Name schon sagt, sind in der Lage, Datenmodelle zu verwenden, die weniger Daten erfordern, aber dennoch nützliche Einblicke bieten.

Trend Nr. 5: XOps

Das Ziel von XOps (Daten, maschinelles Lernen, Modell, Plattform) ist es, mithilfe von DevOps Best-Practices-Effizienz und Größenvorteile zu erzielen – und Zuverlässigkeit, Wiederverwendbarkeit und Wiederholbarkeit zu gewährleisten, während gleichzeitig die Duplizierung von Technologie und Prozessen reduziert und Automatisierung ermöglicht wird.

Diese Technologien ermöglichen die Skalierung von Prototypen und liefern ein flexibles Design und eine agile Orchestrierung von Systemen zur Entscheidungsfindung. Insgesamt wird XOps es Organisationen ermöglichen, Data und Analytics zu operationalisieren, um den Geschäftswert zu steigern.

Trend Nr. 6: Entwickelte Decision Intelligence

Decision Intelligence ist eine Disziplin, die ein breites Spektrum an Entscheidungsfindung umfasst, einschließlich konventioneller Analysen, KI und komplexer adaptiver Systemanwendungen. Entwickelte Decision Intelligence gilt nicht nur für individuelle Entscheidungen, sondern auch für Sequenzen von Entscheidungen, wobei diese in Geschäftsprozesse und sogar Netzwerke der aufkommenden Entscheidungsfindung eingeteilt werden.

Dies ermöglicht es Organisationen, schneller die Erkenntnisse zu gewinnen, die erforderlich sind, um Maßnahmen für das Unternehmen voranzutreiben. In Kombination mit Zusammensetzbarkeit und einer gemeinsamen Datenstruktur eröffnet die entwickelte Decision Intelligence neue Möglichkeiten, um zu überdenken oder umzugestalten, wie Organisationen Entscheidungen optimieren und genauer, wiederholbarer und nachvollziehbarer treffen.

Trend Nr. 7: Data und Analytics als zentrale Geschäftsfunktion

Führungskräfte beginnen zu verstehen, wie wichtig es ist, Data und Analytics zu nutzen, um digitale Geschäftsinitiativen zu beschleunigen. Anstatt ein sekundärer Fokus zu sein – der von einem separaten Team abgeschlossen wird – verlagert sich Data und Analytics zu einer Kernfunktion. Allerdings unterschätzen Führungskräfte häufig die Komplexität von Daten und verpassen dadurch Chancen. Wenn Chief Data Officers (CDOs) an der Festlegung von Zielen und Strategien beteiligt sind, können sie die konsistente Produktion des Geschäftswerts um den Faktor 2,6X erhöhen.

Trend Nr. 8: Graph verbindet alles

Graph bildet die Grundlage für moderne Data und Analytics mit Funktionen zur Verbesserung und Förderung der Zusammenarbeit von Benutzern, maschineller Lernmodelle und erklärbarer KI. Obwohl Graphtechnologien für Data und Analytics nicht neu sind, hat es eine Veränderung in der Denkweise in Bezug auf diese gegeben, da Organisationen eine zunehmende Anzahl von Anwendungsfällen identifizieren. Tatsächlich beinhalten bis zu 50 % der Kundenanfragen von Gartner zum Thema KI eine Diskussion über den Einsatz von Graphtechnologie.

Trend Nr. 9: Der Aufstieg des augmentierten Verbrauchers

Traditionell waren geschäftliche Benutzer auf vordefinierte Dashboards und manuelle Datenexploration beschränkt. Häufig bedeutete dies, dass Data- und Analytics-Dashboards nur für Datenanalysten oder Citizen-Data-Wissenschaftler zugänglich waren, die vordefinierte Fragen untersuchten.

Gartner ist jedoch der Ansicht, dass diese Dashboards in Zukunft durch automatisierte, konversative, mobile und dynamisch generierte Erkenntnisse ersetzt werden, die an die Bedürfnisse eines Benutzers angepasst und an seinen Verbrauchsort geliefert werden. Dies verschiebt das Wissen über Erkenntnisse von einer Handvoll Datenexperten auf jeden in der Organisation.

Trend Nr. 10: Data und Analytics an der Edge

Da immer mehr Datenanalysetechnologien beginnen, außerhalb der herkömmlichen Rechenzentrums- und Cloud-Umgebungen zu bestehen, rücken sie den physischen Assets näher. Dies reduziert oder beseitigt die Latenz für datenzentrierte Lösungen und ermöglicht mehr Echtzeitwert.

Die Verlagerung von Data und Analytics an die Edge wird Datenteams Möglichkeiten eröffnen, ihre Fähigkeiten zu skalieren und ihre Auswirkung auf verschiedene Teile des Unternehmens auszuweiten. Es kann auch Lösungen für Situationen bieten, in denen Daten aus rechtlichen oder behördlichen Gründen nicht aus bestimmten Regionen entfernt werden können.

Big Data: Die Verdatung der Welt

Seit gut 100 Jahren werden Daten gesammelt. Neu ist Big Data: Die Vernetzung via Internet macht den großen Unterschied. Unendlich viel mehr Daten entstehen und können durch ihre Korrelation bis dahin völlig unmessbare Zusammenhänge erzeugen. Big Data bezeichnet im Gegensatz zu Open Data nicht Daten, die für die Öffentlichkeit von allgemeingültigem Interesse sind, sondern personenbezogene Daten. Das sind Daten, die auf eine spezifische identifizierbare Person zurückzuführen sind. Big-Data-Mining folgt dabei vorwiegend privatwirtschaftlichen Interessen.

Mit fortschreitender Demokratisierung öffentlicher Daten geht auch eine Entfesselung der privaten Daten einher, da zwischen öffentlich und privat immer weniger klar differenziert werden kann. Neben Handys und Web-Applikationen sammeln auch Autos, Händler mit Bonusprogrammen, medizinische Geräte etc. unsere Daten. Und zunehmend tauschen die vernetzten Devices auch untereinander Daten aus.

Der Grund für die emotional aufgeladenen Diskussionen um Privatsphäre und Öffentlichkeit ist die Sammlung und Verwendung von Daten im Umfeld von Big Data: Die Tatsache, Nicht alles, was technisch möglich ist, wird kulturell akzeptiert - und Werte und Normen sind träge dass die Datenmenge persönlicher Daten stetig wächst, aber es noch keine klaren ethischen, rechtlichen und moralischen Richtlinien gibt, wie mit diesen Daten umgegangen werden soll. Inhalte werden aus dem Kontext gerissen und mit dem Label „Daten“ versehen. Nicht alles, was technisch möglich ist, wird kulturell akzeptiert. Und Werte und Normen sind träge: Sie verändern sich evolutionär langsamer als die technologische Machbarkeit.

The Next Big Thing

Mark Zuckerberg legte schon vor über zwei Jahren die Strategie von Facebook offen, indem er verkündete, das Zeitalter der Privatsphäre sei vorbei. Facebook sammelt, für jeden offensichtlich, alle nur erdenklichen Daten über seine Nutzer. Facebook-Nutzer nehmen diese Tatsache mehr oder weniger zähneknirschend hin, weil der persönliche Nutzen die Bedenken weitgehend übertrifft. Facebook ist das perfekte Tool zur Verdatung des Lebens. Alte Bekannte wiederfinden, mit Freunden in Kontakt bleiben, sich selbst darstellen, vom letzten Urlaub erzählen – und das bitte alles unter der „wahren“ Identität. Facebook ist nichts für Trolle und Sockenpuppen. Und doch finden wir sie dort: 83 Millionen der 955 Millionen monatlich aktiven Nutzer sind Fakes oder Duplikate. Aus diesem Grund werden Nutzer gefragt: „Ist dies der echte Name deines Freundes?“ Und aufgefordert, ihren vollständigen Namen anzugeben. Big Data hat wenig Sinn ohne authentische Bezüge. Grund ist die Beschwerde von Werbetreibenden auf Facebook, die erzeugten Klicks seien nicht „echt“.

Mit der Allgegenwart von Smartphones und den fleißigen Datensammlern, die sich Apps nennen, sind wir auf dem besten Wege zum „Quantified Self“, einem quantifizierten Menschen, der sein Verhalten über Self-Tracking und Feedbackschleifen kontrollieren und korrigieren kann. Ganz klar steht bei deren Verwendung der persönliche Nutzen und Spaß im Vordergrund. Games sind die perfekten Datengeneratoren.