FUNDIERTE EXPERTISE IM HIGH END BEREICH
Big Data Entwicklung
100 GB pro Sekunde sind für uns der Normalfall - keine Herausforderung. Von der Erstellung eines Datalakes und der Implementierung von Lakeshores über eine effiziente Datennutzung in neuronalen Netzen oder KPI Analytics Tools.
In großen oder stark frequentierten Systemen, fallen auf unterschiedlichsten Ebenen unstrukturierte Daten an. Da in den vergangenen Jahrzehnten Speicherplatz immer günstiger wurde, ist es kosteneffizient möglich diese Daten in großen Mengen zu speichern. Dies eröffnet eine Reihe von Business Cases wie A.I. unterstützte Geschäftsprozesse oder die Analyse von Kundenaktivitäten.
Im Wesentlichen werden dabei vier Fragen beantwortet:
Rückblick - Was ist passiert?
Übersicht - Was passiert gerade?
Einsicht - Warum passiert etwas?
Voraussicht - Was wird passieren?
Um diese Fragen systematisch und korrekt beantworten zu können, werden Hardskills im Bereich Big Data & Analytics benötigt. Hier unterstützen wir mit fundierter Erfahrung in den Bereichen Data Architecture, Data Engineering und Data Science.
Definition Big Data ist ein Sammelbegriff für digitale Technologien. In technischer Hinsicht ist es eine neue Ära digitaler Kommunikation und Verarbeitung. Dabei werden große digitale Datenmengen kontinuierlich gesammelt, analysiert und für diverse Zwecke verwendet. Schon länger wird Big Data in der Vermarktung verwendet, doch jetzt kommt es auch in der Industrie und Produktion zum Einsatz. Große, komplexe und schnelllebige Datenmengen zeigen der Branche einen neuen Weg in die Zukunft auf.
Wie wird Big Data eingesetzt?
Unternehmen, die ihre Produktion effizienter machen wollen, müssen ihre "Datenschätze" heben und nutzen. Hier gilt es, technische Konzepte wie Big Data und Industrie 4.0 intelligent miteinander zu verknüpfen, um eine höhere Transparenz zu schaffen. In der industriellen Fertigung sorgt die fortschreitende Digitalisierung dafür, dass immer mehr Maschinen vernetzt werden. Das hat zur Folge, dass Produktionsanlagen und Lagersysteme zunehmend selbstständig Informationen austauschen, Aktionen anstoßen und einander steuern können. Das Ziel dieser Entwicklung ist, die Prozesse nicht nur in der Fertigung, sondern auch in der Entwicklung, Konstruktion und im Service während des gesamten Produktionszyklus zu verbessern und zu beschleunigen. Je mehr Daten gesammelt und mithilfe von Industry Analytics ausgewertet werden, desto bessere Erkenntnisse lassen sich gewinnen und die Produktion kann entsprechend optimiert werden.
Weitreichende Erkenntnisse und Chancen
Die Erwartungen der Unternehmen an Big Data sind groß. Eine Vielzahl von Industrieunternehmen nutzt bereits die Möglichkeiten von Big Data oder beschäftigt sich konkret mit den Plänen zur Einführung. Oft sind mittelständische Betriebe, die planen mit Big Data zu arbeiten, nicht ausreichend mit dem Thema vertraut. Die großen Unternehmen haben die Chance von Big Data bereits frühzeitig erkannt und sich entsprechend vorbereitet.
Die Entscheider versprechen sich höhere Gewinne und ein besseres Marktverständnis, da die Daten kontinuierlich gesammelt und ausgewertet werden, sodass stets ein aktuelles Bild vom Markt entsteht. Sie rechnen mit gravierenden Konsequenzen, die sie aus den Erkenntnissen von Big Data ziehen. Schließlich kann auf diese Weise flexibel und schnell auf Veränderungen des Marktes reagiert werden. In einem Unternehmen mit Big Data bedarf es im Umgang mit Daten eine neue Zuständigkeit. Diese wird in Zukunft der Chief Data Officer übernehmen, der sodann die Gesamtverantwortung für das Sammeln und Auswerten der Daten trägt.
Die Zukunft mit Big Data
Die Entwicklung schreitet unaufhaltsam voran. In vielen Unternehmensbereichen spielt Big Data bereits heute eine wichtige Rolle und beinflusst die Unternehmensentwicklung. Die automatisierte Erfassung, Analyse, Auswertung und Nutzung enormer Datenmengen, lassen sich nur durch Computer und vernetzte Rechenzentren bewerkstelligen.
Buchen Sie unsere Seminare für die Industrie 4.0.
Immer mehr Daten lassen sich zu immer geringeren Kosten erheben und für eine eventuelle spätere Nutzung speichern, sei es im privaten Umfeld, sei es durch Unternehmen oder Behörden. Big Data ist Synonym für die riesigen Datensammlungen, in denen das „Wissen“ aus dem frei zugänglichen Internet, von Archiven, Unternehmen, Behörden, Kommunen und Privatpersonen gespeichert wird. Mittels Big Data werden Methoden, Technologien, IT Architekturen und Auswertungssoftware zur Verfügung gestellt, um diese exponentiell steigenden Datenvolumen für quantitative und qualitative Analysen und somit für strategische Entscheidungsfindung zugänglich zu machen. Alle zwei Jahre verdoppelt sich das Volumen der gespeicherten Daten weltweit. Ein Ende des Wachstums dieser riesigen Datenmengen, welche aus dem Internet oder auch anderweitig gesammelt, verfügbar gemacht und entsprechend ausgewertet werden, ist nicht absehbar, denn die Speicherung von Daten ist schon lange kein relevanter Kostenfaktor mehr. Diese riesigen Datenmengen, oft sogar unstrukturiert, werden in der digitalen Welt immer mehr zu einem Produktionsfaktor neben Kapital, Arbeitskraft und Rohstoffen. Bestimmte Bereiche in den Unternehmen der Wirtschaft, wie u. a. Forschung und Entwicklung, Marketing, Produktion und Vertrieb, sind geradezu prädestiniert für den Einsatz von Big Data. Mittels Cloud Computing werden der Austausch und das Anlegen solcher riesigen Datensammlungen wesentlich erleichtert. Zudem stellen auch Verwaltungen im Rahmen von Open Government oder Open Data immer mehr Daten im Internet jedermann zur Verfügung (vgl. den Leitfaden des BITKOM von 2012).
Diese riesigen Datenmengen bieten ein enormes Potential für neue ökonomische, gesellschaftliche, wissenschaftliche und soziale Erkenntnisse. Forscher können neues Wissen ableiten, Unternehmen ihre Marktpositionierung verbessern, private Haushalte erlangen Komfortgewinn und können sparsamer mit Ressourcen umgehen, neue Produkte mit neuen Eigenschaften entstehen. Der Staat findet Hinweise auf terroristische Planungen oder zur Aufklärung von Verbrechen und bedient sich dabei Public-Private-Partnerships von Sicherheitsbehörden und Unternehmen. Doch auch die Risiken durch diese moderne Form der Rasterfahndung sind enorm. Daten werden in alle Richtungen verknüpft, neue Daten entstehen, informationeller Machtmissbrauch wird möglich, Grund- und Menschenrechte können massiv verletzt werden. Aus diesem Grund darf die Nutzung von Big Data-Ressourcen nur nach einer Risiko- und Technikfolgenabschätzung unter Einbeziehung von Politik, Gesellschaft, Wissenschaft und Datenschutzbeauftragten erfolgen.
Letztlich wird Big Data dort genutzt werden, wo sich Geld beschaffen oder einsparen lässt: Direkt beim Kunden. Beschrieben wird dieser Vorgang auch durch den Begriff „Consumerization“: Die meisten neuen Technologien – vor allem aus dem IT-Bereich – setzen sich zuerst beim Verbraucher durch und breiten sich erst später weiter in Unternehmen und Behörden aus.
Relationale Datenbanksysteme klassischer Art haben zunehmend massive Probleme, derart große und unstrukturierte Daten effektiv zu verarbeiten und zu visualisieren. Aus diesem Grund wird massiv parallel rechnende Spezialsoftware entwickelt und verwendet, welche diese Daten analysiert und so neue Informationen sowie neue Erkenntnisse daraus generieren soll.
Insbesondere die im Jahr 2013 bekannt gewordenen umfangreichen Spionage- und Überwachungsprogramme amerikanischer und britischer Geheimdienste bereiten den Bürgerinnen und Bürgern zunehmend Sorgen und schüren die Ängste vor Big Data. Programme wie PRISM und XKeyScore tragen Daten zu Einzelpersonen aus verschiedensten Quellen zusammen und erlauben die umfassende Überwachung ihrer Kommunikation durch aktive Zuarbeit der beteiligten Diensteanbieter, teilweise sogar in Echtzeit. Das britische Programm Tempora ist der Codename des dortigen Geheimdienstes Government Communications Headquarters (GCHQ) für ein ähnliches Projekt. Es dient auch der Überwachung des weltweiten Datenverkehrs in Telekommunikations- und Internet-Netzwerken.
Der Landesbeauftragte empfiehlt den sachsen-anhaltischen Behörden, Unternehmen und Kommunen, ihre Datenschutz- und Datensicherheitskonzepte zu überprüfen, ob diese allen aktuell vorstellbaren Gefährdungsszenarien standhalten. Insbesondere wenn öffentliche Stellen mit privaten Anbietern zusammenarbeiten, welche durch ihre Cloud-Angebote oder auch E-Mail- oder Internet-Dienstleistungen vermutlich mit ausländischen Geheimdiensten kooperieren (müssen) oder im Fokus dieser stehen, ist dringend zu prüfen, ob dies noch den Forderungen des DSG LSA bzw. BDSG entspricht.
Der Landesbeauftragte fordert beim Thema Big Data öffentliche Stellen wie Unternehmen auf, den Datenschutz und bestimmte Grundsätze zu beachten:
Bei Big Data-Lösungen muss der Datenschutz oberste Priorität besitzen. Die Datenverarbeitung darf nur auf gesetzlicher Grundlage bzw. nur mit Einwilligung der Betroffenen erfolgen.
Nur transparente Big Data-Lösungen (Algorithmen wie Datenbestände) ermöglichen Öffentlichkeit und erlauben Nutzern, Betroffenen, Politikern, Datenschutzbeauftragten und interessierten Dritten, sich Wissen und einen Überblick zur Entwicklung bei Big Data zu verschaffen. Ohne Transparenz auch bereits in der Planungsphase sind entstehende Gefahren nicht erkennbar.
Die Verarbeitung von Daten muss grundsätzlich in anonymisierter Form erfolgen, damit eine Rückführung auf einzelne Personen nicht möglich ist. Der Einsatz von Techniken zum Erhalt der Privatsphäre, wie eine wirksame quellennahe Anonymisierung der Datenströme, ist Pflicht. Eine mögliche Deanonymisierung der Daten einzelner Personen durch Zusammenführung verschiedener anonymisierter Datenbestände muss durch eine sofort anschließende erneute Anonymisierung ausgeschlossen werden.
Big Data-Erkenntnisse dürfen nur erfasst, ausgewertet und insbesondere veröffentlicht werden, wenn dadurch betroffene Einzelpersonen oder Gruppen nicht diskriminiert werden können. Ergebnis-Daten, die Rückschlüsse auf einzelne Personen erlauben, dürfen nicht veröffentlicht werden.