Kommentar von Patrick Arnold, Ausy Technologies Germany AG Aufbau einer Cloud-Datenplattform für Analysen und KI
Künstliche Intelligenz ist ein Trendthema, das immer mehr Unternehmen nutzen wollen. Besonders im Interesse steht dabei eine intelligente und automatische Datenauswertung. Ein erfolgreicher Einsatz von Machine Learning setzt jedoch sehr umfangreiche Datensets voraus, denn mit diesen wird das KI-Modell über viele Iterationen hinweg trainiert, sodass es am Ende verlässliche Ergebnisse auszugeben vermag.
Der Autor: Patrick Arnold ist IT-Consultant und Mitglied des Technologie-Managements bei der Ausy Technologies Germany AG. (Bild: BECKER LACOUR - Olaf Becker)
Doch wie muss die IT-Architektur dahinter aussehen? Schließlich muss sie in der Lage sein, die mitunter riesigen Datenmengen zu verarbeiten sowie schnell zu skalieren. Das ist alles andere als eine triviale Angelegenheit, weshalb eine herkömmliche Architektur nicht mehr genügt. Vielmehr braucht es innovative Datenplattformen für diesen neuen Typ von digitalen Anwendungen. Im Folgenden finden stellen wir eine Übersicht über den Aufbau einer solchen Architektur vor, die wir in einem Kundenprojekt mithilfe des Google Cloud Stacks entwickelt haben.
Herausforderungen bei der Einführung und Anwendung KI-gestützter Datenanalysen
Eine erste Herausforderung stellt die Skalierung der IT-Infrastruktur im Hinblick auf die Datenmenge dar. In den kommenden drei bis vier Jahren ist dabei mit einer Zunahme um etwa das Fünffache zu rechnen. Die IT-Infrastruktur, welche eine KI-Lösung zur Datenanalyse beheimaten soll, muss daher schon von vornherein auf Wachstum ausgelegt werden. Durch die Zunahme kontinuierlicher Datenströme – insgesamt bis zu 25 Prozent – ist die Streamverarbeitung der Batchverarbeitung vorzuziehen. Das zieht häufig eine technische Umstellung nach sich.
Um hiermit Schritt zu halten, müssen Unternehmen die Weichen neu stellen – nicht nur auf die IT-Architektur, sondern auch auf die gesamte Organisation bezogen. Um nachhaltig von Datenanalysen der Unternehmensprozesse zu profitieren, genügt es nicht, nur die Datenpools isolierter Silos unter die Lupe zu nehmen. Vielmehr muss sich die Organisation auf eine „Datenkultur“ einstellen, bisherige Silos verbinden sowie Daten aus allen Unternehmensbereichen der KI zuführen.
Bei einem Großteil der Daten, die zukünftig in Analyseprozesse einfließen, wird es sich um unstrukturierte Daten handeln – also zum Beispiel Bilder, Video- und Audio-Dateien oder auch Fließtext. Das Speichern und Verarbeiten dieser Daten erfolgt sinnvollerweise durch nicht-relationale (bzw. NoSQL-)Datenbanken wie MongoDB oder CouchDB. Allerdings werden strukturierte Daten in SQL-Datenbanken auch mittelfristig keineswegs ihre Gültigkeit verlieren. Die unstrukturierten Daten sind daher mit strukturierten Daten zu kombinieren und zusammenzuführen, was eine zusätzliche Herausforderung darstellt.
Zu all diesen Herausforderungen kommt dazu, dass Know-how und personelle Ressourcen im Bereich KI/ML einen Engpass darstellen. Organisation und Infrastruktur müssen darauf eingestellt werden, aus möglichst wenig Input an Personalstunden möglichst viel Output zu generieren. Das gelingt am besten mit einem zentralen Enterprise Data Warehouse (EDW), dessen Aufbau im nächsten Abschnitt dargestellt ist. Für das erwähnte Kundenprojekt wurde ein EDW mit dieser Methodik eingeführt.
Ein zentrales Enterprise Data Warehouse beschleunigt den technologischen Wandel
Um erfolgreich von einer Silo- zu einer EDW-Infrastruktur zu gelangen, hat sich die folgende Vorgehensweise herauskristallisiert:
1. Migration des bestehenden Data Lake bzw. Data Warehouse in die Cloud: Vor dem Projekt wurde eine Kostenschätzung zu verschiedenen Architekturmodellen für das EDW erstellt. Diese kam zum Ergebnis, dass eine Migration in die Cloud die Total Cost of Ownership (TCO) eines Data Warehouse im Vergleich zur On-Premises-Option um mehr als die Hälfte senken kann. Betriebswirtschaftlich interessant ist dabei zudem, dass keine Kapitalinvestitionen notwendig sind, sondern für die Cloud lediglich Betriebs- und geringfügige Administrationskosten anfallen. Vordefinierte Migrationsskripts helfen dabei, den Übergang einfach zu gestalten – in unserem Beispielprojekt von einer On-Premises-Lösung mit Teradata auf Google BigQuery.
2. Aufbrechen der Silostruktur, Verfügbarmachen der Analysefunktionen und Aufbau einer Datenkultur im gesamten Unternehmen: Unternehmen generieren Daten in den unterschiedlichsten Silos und Kanälen. Die Fragmentierung der Silo-Landschaft nimmt im Zuge der Digitalisierung stetig zu, denn jede Fachabteilung nutzt für sich jeweils eigene Software. Häufig werden diese auch noch über ein Software-as-a-Service-Modell bezogen, sodass die Daten über Schnittstellen von den Datenbanken der Anbieter in die eigenen Systeme transferiert werden müssen. Die Daten aus den Silos müssen also zunächst im EDW zentralisiert und dann wiederum allen Stakeholdern des Unternehmens dezentral zur Verfügung gestellt werden. Um KI- und datengestützte Geschäftsentscheidungen auf allen Ebenen zu ermöglichen, brauchen Mitarbeiter im ganzen Unternehmen schließlich auch die entsprechenden Zugänge. In der zentralen Plattform werden alle Prozesse gebündelt und ganzheitlich unter die Lupe genommen, sodass Unternehmensbereiche gegenseitig von ihren Erkenntnissen profitieren – frei nach dem Motto: „Das Ganze ist mehr als die Summe seiner Teile.“
3. Einführung Kontext-bezogener Entscheidungsfindung in Echtzeit: Für eine profitable Business-Entscheidung sind zwei Faktoren entscheidend: Einerseits die Ausführungszeit beziehungsweise -latenz, andererseits der Datenkontext. Vor allem räumliche Daten – also beispielsweise, woher eine Anfrage kommt – sind wichtig für das Verständnis der analysierten Ereignisse. Der Einsatz Geografischer Informationssysteme (GIS) in Kombination mit KI war in unserem Implementierungsbeispiel mit BigQuery ein wichtiges Ziel. Das Vorgehen hat den Vorteil, dass Daten in Echtzeit in BigQuery hinein und weiter in eine SQL-Datenbank geströmt werden können. Während des Streamingvorgangs sind KI-Analysen in Echtzeit möglich.
4. „Leap-Frogging“ (d. h., sprunghafte Weiterentwicklung) hin zu einer Ende-zu-Ende-umfassenden KI-Lösung: Wie bei fast allen Software-Lösungen gilt es auch bei KI, eine grundsätzliche Entscheidung zu treffen zwischen einer Eigenentwicklung – zum Beispiel auf Basis von Open Source Frameworks – und dem Einkauf einer fertigen Lösung am Markt. Es ist allerdings wenig sinnvoll, bereits vortrainierte KI-Modelle einzukaufen, denn sie gehen in der Regel am gewünschten Anwendungsfall vorbei. Alle Angebote sollten genau daraufhin geprüft werden, ob sie den erforderlichen Leistungskriterien genügen. Prinzipiell können integrierte Lösungen viel Zeit und Aufwand sparen, die sonst für die Entwicklung von Schnittstellen zwischen separaten Diensten anfallen würden.
5. Entfesseln datengetriebener Innovationen durch Bereitstellung einer geeigneten KI-Lösung: Die wertvollen Erkenntnisse aus den Daten bringt schließlich die KI-Plattform. Sinnvoll ist es, diese in drei Typen zu unterteilen. Eine „Out of the box“-KI ist gut geeignet, um datenbezogene Geschäftsprozesse – zum Beispiel in einem Customer Interaction Center (CIC) – zu optimieren. Allerdings handelt es sich um Standardlösungen, die keine nennenswerten Wettbewerbsvorteile eröffnen. Eher, wenngleich noch nicht vollkommen individuell, ist der zweite Typ: Nämlich ein KI-Modell, das aus vorgefertigten Modulblöcken zusammengestellt wird. Dieses passt in der Regel zu der Aufgabe, Erkenntnisse aus den unternehmenseigenen Daten zu generieren. Am anspruchsvollsten ist dann noch der dritte Typ, nämlich das individuelle KI-Modell. Dieses wird von Grund auf durch eigene Datensets trainiert. Dabei muss zwar viel Zeit und Aufwand hineinfließen, jedoch ist das hier entwickelte Vorgehen einzigartig und kann einen spürbaren Wettbewerbsvorteil eröffnen. Die Aufteilung in diese drei beschriebenen Typen von KI ermöglicht es, die knappen Personalressourcen sinnvoll zu verteilen.
Sind alle fünf Schritte erfolgreich abgeschlossen, erhält das Anwenderunternehmen eine mächtige Lösung, um entscheidungsrelevante Erkenntnisse aus allen Datenströmen zu gewinnen.
Legacy-Systeme sowie Datenqualität und -zugang stellen häufige Hindernisse dar
Auf dem Weg zum EDW gibt es in aller Regel noch einige Hindernisse, die es auszuräumen gilt. Zunächst sind da einmal die Legacy-Systeme, deren Modernisierung und Wartung relativ gesehen sehr teuer ist. Hierdurch ist die Skalierbarkeit beschränkt, sodass die Infrastruktur dem schnellen Datenwachstum nicht standhalten kann. Grundsätzlich muss daher in Frage gestellt werden: Sind die bestehenden Systeme überhaupt in der Lage, KI- und ML-Lösungen zu unterstützen? Ist der Aufwand, sie zu betreiben und zu „tunen“, angemessen – angesichts der Einblicke, die sie am Ende generieren?
Doch nicht nur in der Infrastruktur, sondern auch im Prozess der Datenerhebung treten einige Hindernisse auf, die es zu überwinden gilt. So können übertrieben restriktive Datenschutz- und Sicherheitsbestimmungen die notwendige Konsolidierung der Datenströme erheblich einschränken. Daneben sind die Datenquellen häufig nicht geeignet, um stets die aktuellen Daten vorzuhalten oder einzuspeisen. KI-Einblicke sind allerdings nur so gut und umfangreich, wie die verfügbare Datenbasis. Die Datenqualität ist damit der grundlegende Erfolgsfaktor für jede KI-Strategie.
Aufbau einer skalierbaren Datenplattform mit KI
Unser Praxisbeispiel einer Datenplattform, die KI-Analysefunktionen ermöglicht, beruht auf Google Cloud. Analog ließe es sich jedoch auch auf dem Cloud Stack eines vergleichbaren anderen Anbieters aufbauen, zum Beispiel Amazon Web Services (AWS) oder Microsoft Azure.
Jetzt Newsletter abonnieren Täglich die wichtigsten Infos zu Big Data, Analytics & AI Geschäftliche E-Mail Bitte geben Sie eine gültige E-Mailadresse ein. Newsletter abonnieren Mit Klick auf „Newsletter abonnieren“ erkläre ich mich mit der Verarbeitung und Nutzung meiner Daten gemäß Einwilligungserklärung (bitte aufklappen für Details) einverstanden und akzeptiere die Nutzungsbedingungen. Weitere Informationen finde ich in unserer Datenschutzerklärung. Aufklappen für Details zu Ihrer Einwilligung Stand vom 30.10.2020 Es ist für uns eine Selbstverständlichkeit, dass wir verantwortungsvoll mit Ihren personenbezogenen Daten umgehen. Sofern wir personenbezogene Daten von Ihnen erheben, verarbeiten wir diese unter Beachtung der geltenden Datenschutzvorschriften. Detaillierte Informationen finden Sie in unserer Datenschutzerklärung. Einwilligung in die Verwendung von Daten zu Werbezwecken Ich bin damit einverstanden, dass die Vogel IT-Medien GmbH, Max-Josef-Metzger-Straße 21, 86157 Augsburg, einschließlich aller mit ihr im Sinne der §§ 15 ff. AktG verbundenen Unternehmen (im weiteren: Vogel Communications Group) meine E-Mail-Adresse für die Zusendung von redaktionellen Newslettern nutzt. Auflistungen der jeweils zugehörigen Unternehmen können hier abgerufen werden. Der Newsletterinhalt erstreckt sich dabei auf Produkte und Dienstleistungen aller zuvor genannten Unternehmen, darunter beispielsweise Fachzeitschriften und Fachbücher, Veranstaltungen und Messen sowie veranstaltungsbezogene Produkte und Dienstleistungen, Print- und Digital-Mediaangebote und Services wie weitere (redaktionelle) Newsletter, Gewinnspiele, Lead-Kampagnen, Marktforschung im Online- und Offline-Bereich, fachspezifische Webportale und E-Learning-Angebote. Wenn auch meine persönliche Telefonnummer erhoben wurde, darf diese für die Unterbreitung von Angeboten der vorgenannten Produkte und Dienstleistungen der vorgenannten Unternehmen und Marktforschung genutzt werden. Falls ich im Internet auf Portalen der Vogel Communications Group einschließlich deren mit ihr im Sinne der §§ 15 ff. AktG verbundenen Unternehmen geschützte Inhalte abrufe, muss ich mich mit weiteren Daten für den Zugang zu diesen Inhalten registrieren. Im Gegenzug für diesen gebührenlosen Zugang zu redaktionellen Inhalten dürfen meine Daten im Sinne dieser Einwilligung für die hier genannten Zwecke verwendet werden. Recht auf Widerruf Mir ist bewusst, dass ich diese Einwilligung jederzeit für die Zukunft widerrufen kann. Durch meinen Widerruf wird die Rechtmäßigkeit der aufgrund meiner Einwilligung bis zum Widerruf erfolgten Verarbeitung nicht berührt. Um meinen Widerruf zu erklären, kann ich als eine Möglichkeit das unter https://support.vogel.de abrufbare Kontaktformular nutzen. Sofern ich einzelne von mir abonnierte Newsletter nicht mehr erhalten möchte, kann ich darüber hinaus auch den am Ende eines Newsletters eingebundenen Abmeldelink anklicken. Weitere Informationen zu meinem Widerrufsrecht und dessen Ausübung sowie zu den Folgen meines Widerrufs finde ich in der Datenschutzerklärung, Abschnitt Redaktionelle Newsletter.
Orchestriert wird die Plattform nach den Prinzipien von Continuous Integration / Continuous Delivery (CI/CD). Hierdurch werden bisherige Integrationsprobleme überwunden, sodass die beteiligten Entwickler ihren Code nahtlos in den bestehenden einpflegen können. In fast allen Phasen der Anwendungsentwicklung kommt dabei Automatisierung zum Tragen. Wie dies in der Praxis aussehen kann, zeigt das folgende Schaubild:
Prozessübersicht der Continuous Integration / Continuous Delivery (CI/CD) in einer KI-Analyse-Lösung auf Basis von Google Cloud (Bild: Google)
Durch eine solche CI/CD-Pipeline entsteht ein kontinuierlicher Datenstrom, der in Erkenntnisse für die relevanten Entscheidungen mündet. Die Lösung kann in nahezu Echtzeit auf Veränderungen reagieren und Feedback-Schleifen berücksichtigen. Hierdurch lassen sich zum Beispiel „Frühwarnsysteme“ realisieren, die ein entschiedenes Handeln bei rapiden Veränderungen ermöglichen.
Zuletzt sollte nicht unerwähnt bleiben, dass Business Analytics keine rein technische Aufgabe ist und KI-/ML-Modelle keineswegs „von selbst“ zu Ergebnissen führen. Die Kontextualisierung von Analyse-Ergebnissen sowie das Verständnis für sie als Entscheidungsgrundlagen, sind nach wie vor beim Menschen – genauer, im Management – angesiedelt.
Dennoch werden Unternehmen, die heute in die entsprechende Infrastruktur investieren, früher in der Lage sein, die Erkenntnisse aus KI-Analysen für sich zu nutzen. Damit wird sich im Lauf der Zeit ihr Wettbewerbsvorteil gegenüber denjenigen Mitbewerbern immer weiter vergrößern, welche den Datenschatz in ihrem Unternehmen nicht heben wollen oder können.
(ID:47641165)
Durchdacht und durchgerechnet Manchmal gar nicht so schlau: KI für die Cloud
Deutsche Unternehmen begeistern sich für Maschinenlernen, Roboterautomation und künstliche Intelligenz. Doch die Nutzung entsprechender Systeme muss gleich drei Hürden nehmen. Manchmal muss daher die natürliche Verbindung von KI und Cloud gekappt werden.
Die Nutzung von künstlich intelligenter Systeme muss gleich drei Hürden nehmen. (Bild: gemeinfrei, PublicDomainPictures / Pixabay)
Mit drei Milliarden Euro will die Bundesregierung die Forschungen an der Künstlichen Intelligenz (KI/AI) bezuschussen – mehr oder weniger, die Diskussionen darum laufen seit Wochen auch in den Massenmedien. Kein Wunder: Deutsche Unternehmen erhoffen sich von KI, Robotic Process Automation (RPA) und Maschine Learning (ML) „mehr Umsatz, weniger Personaleinsatz, bessere Entscheidungsfindung und einen höheren Automatisierungsgrad“, so die Analystin Anna-Lena Schwalm von Crisp Research, übereinstimmend mit Ergebnissen von PAC.
Das österreichische Bundesministerium für Verkehr, Innovation und Technologie (BMVIT) hat erkannt (PDF), dass KI-Systeme im Rechenzentrum „für die unterschiedlichsten Anwendungen und Funktionen“ eingesetzt werden können, darunter Monitoring von großen Datenmengen, Auffinden von Mustern und neuen Erkenntnissen, Vorhersagen, Interpretation von unstrukturierten Daten und Interaktion mit der physischen Umgebung, anderen Maschinen und Menschen. So oder so: 44 Prozent der von Crisp befragten Entscheider gehen aktuell davon aus, dass ML in den kommenden zwei Jahren mehr als 20 Prozent der Wertschöpfung neuer digitaler Produkte und Dienstleistungen ausmachen wird. Umgerechnet auf die 100 umsatzstärksten deutschen Unternehmen entspricht das rund 61 Milliarden Euro im Jahr 2020.
Natürliche Verbindung von Cloud und KI
Anwendern kommt eine andere Technologie entgegen, die parallel und unterstützend zu KI für Furore im Rechenzentrum sorgt: Cloud Computing. Zwischen beiden Verfahren besteht praktisch eine natürliche Verbindung, denn KI benötigt Daten, Unmengen von Daten, um etwas lernen und erkennen zu können. Diese müssen irgendwoher kommen und irgendwohin abgespeichert werden. Ohne die Cloud wäre das kaum machbar.
Da wundert es wenig, dass deutsche Firmen laut der Untersuchung „State of AI in the Enterprise Survey 2019“ von Deloitte künstliche intelligente Systeme kaum selbst entwickeln, sondern als Service beziehen oder Unternehmenssoftware mit integrierter KI einsetzen. Als KI-as-a-Service findet die Technologie auch leicht Eingang in mittelständische Unternehmen: „Insgesamt lässt sich festhalten, dass der Trend „AI als Dienstleistung“ gewissermaßen zur Demokratisierung von AI beiträgt: Cloud-basierte Lösungen Künstlicher Intelligenz eröffnen auch kleineren Unternehmen, denen oft die benötigten Fachkräfte und Mittel für Eigenentwicklungen fehlen, den Zugang zu dieser neuen Schlüsseltechnologie“, so Milan Sallaba, Leiter Technology Sector bei Deloitte.
Problem 1: Datenschutz wird noch herausfordernder
Gerade hat Cloud Computing seinen schlechten Ruf abgelegt, was die Sicherheit der darin aufbewahrten Daten anbelangt. Gerade noch als völlig unsicher verschrieen finden sich Clouds in der einen oder anderen Art mittlerweile praktisch in jeder Firma, Sicherheitsverfahren wie etwa Cloud Access Security Broker (CASB) haben sie sicherer werden lassen.
Nun aber tritt ein neuer Alliierter auf, dessen Ruf noch schlechter ist: Deloitte hat herausgefunden, dass „das Vertrauen in künstliche Intelligenz ausbaufähig ist“, deutsche Unternehmen betrachteten KI vielfach mit Sorge. „Gerade hinsichtlich Cyber-Risiken bestehen Bedenken, etwa was den Diebstahl sensibler Daten oder Algorithmen anbelangt“, so Ralf Esser, Leiter TMT Insights Deutschland bei Deloitte. „Als gravierendste Herausforderungen im Rahmen von KI-Initiativen nennen die befragten deutschen Firmen an erster Stelle datenbezogene Probleme etwa bezüglich Datenschutz, Datenqualität, Bereinigung, Integration, maschinelle Interpretation und so weiter.“
Da deutsche Unternehmen gehalten sind, die europäische Datenschutzgrundverordnung (DSGVO) vollumfänglich umzusetzen, müssen sie auch eine Datenschutzfolgeabschätzung vornehmen. Künstlich intelligente Maschinen haben nun aber den Anspruch, zu lernen – mit der Folge, dass der zu Grunde liegende Algorithmus nötigenfalls laufend verändert wird. Wie genau eine Datenschutzfolgeabschätzung für ML/KI unter diesen Umständen erfolgen soll ist nach wie vor unklar.
Problem 2: Qualität der Daten
Vanson Bourne hat in seiner Studie „Driving The Rise of AI and ML with Data“ nachgewiesen, dass – analog zu den oben genannten Studienergebnissen – Unternehmen gerne KI / ML einsetzen würden, nicht zuletzt weil man sich davon greifbare Predictive Analytics erwartet. Zugleich fand Vanson Bourne heraus, dass dieselben Unternehmen in der Regel gar nicht die Kapazitäten vorhalten, um KI / ML durchzuführen. 37 Prozent der Unternehmen haben demnach extra in Cloud-Storage investiert, aber nur 30 Prozent nutzen Werkzeuge, um einen Mehrwert aus ihren Daten zu ziehen.
Jetzt Newsletter abonnieren Täglich die wichtigsten Infos zu Cloud Computing Geschäftliche E-Mail Bitte geben Sie eine gültige E-Mailadresse ein. Newsletter abonnieren Mit Klick auf „Newsletter abonnieren“ erkläre ich mich mit der Verarbeitung und Nutzung meiner Daten gemäß Einwilligungserklärung (bitte aufklappen für Details) einverstanden und akzeptiere die Nutzungsbedingungen. Weitere Informationen finde ich in unserer Datenschutzerklärung. Aufklappen für Details zu Ihrer Einwilligung Stand vom 30.10.2020 Es ist für uns eine Selbstverständlichkeit, dass wir verantwortungsvoll mit Ihren personenbezogenen Daten umgehen. Sofern wir personenbezogene Daten von Ihnen erheben, verarbeiten wir diese unter Beachtung der geltenden Datenschutzvorschriften. Detaillierte Informationen finden Sie in unserer Datenschutzerklärung. Einwilligung in die Verwendung von Daten zu Werbezwecken Ich bin damit einverstanden, dass die Vogel IT-Medien GmbH, Max-Josef-Metzger-Straße 21, 86157 Augsburg, einschließlich aller mit ihr im Sinne der §§ 15 ff. AktG verbundenen Unternehmen (im weiteren: Vogel Communications Group) meine E-Mail-Adresse für die Zusendung von redaktionellen Newslettern nutzt. Auflistungen der jeweils zugehörigen Unternehmen können hier abgerufen werden. Der Newsletterinhalt erstreckt sich dabei auf Produkte und Dienstleistungen aller zuvor genannten Unternehmen, darunter beispielsweise Fachzeitschriften und Fachbücher, Veranstaltungen und Messen sowie veranstaltungsbezogene Produkte und Dienstleistungen, Print- und Digital-Mediaangebote und Services wie weitere (redaktionelle) Newsletter, Gewinnspiele, Lead-Kampagnen, Marktforschung im Online- und Offline-Bereich, fachspezifische Webportale und E-Learning-Angebote. Wenn auch meine persönliche Telefonnummer erhoben wurde, darf diese für die Unterbreitung von Angeboten der vorgenannten Produkte und Dienstleistungen der vorgenannten Unternehmen und Marktforschung genutzt werden. Falls ich im Internet auf Portalen der Vogel Communications Group einschließlich deren mit ihr im Sinne der §§ 15 ff. AktG verbundenen Unternehmen geschützte Inhalte abrufe, muss ich mich mit weiteren Daten für den Zugang zu diesen Inhalten registrieren. Im Gegenzug für diesen gebührenlosen Zugang zu redaktionellen Inhalten dürfen meine Daten im Sinne dieser Einwilligung für die hier genannten Zwecke verwendet werden. Recht auf Widerruf Mir ist bewusst, dass ich diese Einwilligung jederzeit für die Zukunft widerrufen kann. Durch meinen Widerruf wird die Rechtmäßigkeit der aufgrund meiner Einwilligung bis zum Widerruf erfolgten Verarbeitung nicht berührt. Um meinen Widerruf zu erklären, kann ich als eine Möglichkeit das unter https://support.vogel.de abrufbare Kontaktformular nutzen. Sofern ich einzelne von mir abonnierte Newsletter nicht mehr erhalten möchte, kann ich darüber hinaus auch den am Ende eines Newsletters eingebundenen Abmeldelink anklicken. Weitere Informationen zu meinem Widerrufsrecht und dessen Ausübung sowie zu den Folgen meines Widerrufs finde ich in der Datenschutzerklärung, Abschnitt Redaktionelle Newsletter.
„Ich bin überrascht, dass nur wenige Unternehmen Cloud-Infrastrukturen tatsächlich für ML und KI einsetzen, obwohl dies viele Vorteile hätte. Es scheint, dass viele Unternehmen das Potenzial ihrer Daten noch nicht erkannt haben: Sie investieren in die Cloud, um diese dann doch nur für passive Datendienste zu nutzen. Dabei könnten die flexibel skalierbaren Rechenleistungen helfen, um mittels ML ihr Business zu optimieren“, so Mathias Golombek, CTO bei Exasol, das die Studie gesponsert hat. Er rät zu hybriden IT-Umgebungen, um Daten-Silos zu vermeiden und so übergreifend Informationen aus den Daten zu generieren.
„Mit Maschinellem Lernen zu beginnen, ist einfacher als viele befürchten, und es ist ermutigend zu sehen, dass Unternehmen die Qualität ihrer Daten mittlerweile verbessern – denn dies ist eine entscheidende Voraussetzung. Nur qualitativ hochwertige Daten bilden die Grundlage für solche lernenden Systeme. Die Cloud bietet hierbei Projektleitern die Möglichkeit, die Infrastruktur nach und nach zu skalieren und Kompetenzen für Pilotprojekte oder langfristige Programme aufzubauen“, so Golombeks von Vanson Bourne.
Problem 3: Latenz
Nun, ein Drittel der Firmen hat das Problem erkannt und setzt KI bzw. ML in Kombination mit Cloud-Diensten ein. Aber auch diese Pioniere sehen sich einer weiteren Hürde gegenüber: Daten stammen oft aus einem Industrie 4.0-Nezwerk, einem Internet of Things (IoT) und werden von irgendeinem Sensor hervorgebracht. Die Übertragung dieser Daten in die angeflanschte Cloud dauert!
Die Studie „Reach Your Analytics Goals with Hybrid Cloud“ von Forrester zeigt, dass Anwender gerade die für KI notwendigen Workloads in die Hybrid Cloud schieben, diese wird zum integralen Bestandteil von modernen Analytics-Strategien. Für die innercloudige Datenverarbeitung haben die Prozessorenexperten dieser Welt mittlerweile spezielle Hardware geschmiedet, mit der Ergebnisse tatsächlich beinahe in Echtzeit erzielt werden können. Doch die Leitungen zwischen Sensor und Tool sind das Problem.
Und was für ein Problem – stellen Sie sich etwa die kommenden autonomen Fahrzeuge vor. Diese funktionieren nur mit KI, das Auto muss im Zweifelsfall, gerade in brenzligen Situationen, blitzschnelle Entscheidungen treffen. Dauert die Übertragung der dafür nötigen Daten zu den Werkzeugen in der Cloud zu lange, können die Insassen des Fahrzeugs längst tot sein. „Längere Distanzen zwischen dem Anwender und der Anwendung in der Cloud führen zu einer höheren Latenz beim Datentransfer. Hinzu kommt eine nicht ausreichende Bandbreite sowie Protokolle, die nicht für weite Strecken geeignet sind. Das hat zur Folge, dass ebenfalls die Geschwindigkeit der Anwendung darunter leidet und der Anwender so mit einer langsamen Anwendung arbeiten muss“, so Crisp-Analyst Hille bereits vor Jahren.
Lösung: Edge Computing?
Ganz frisch stellt daher Capgemini die berechtigte Frage: „Zunehmender Datenverkehr stellt die Cloud vor Herausforderungen hinsichtlich Latenz, Netzwerkbandbreite und erhöhten Netzwerkkosten. Ist Edge Computing die Lösung?“ Beim Edge Computing wird das verarbeitende Rechenzentrum bekanntlich an die Quelle der Daten herangerückt, „Durch die lokale Verarbeitung von Daten, werden Latenzzeiten verkürzt und Netzwerküberlastungen verhindert“, so Capgemini. Das Problem ist genauso bekannt wie vielschichtig.
Das haben neben Spezialisten wie Thomas Krenn auch Generalisten wie IBM, Siemens und Bosch, HPE, Amazon, Microsoft oder Google erkannt und haben entsprechende Lösungen gebaut. Speziell für KI-Anwendungen ist etwa AWS Greengrass entwickelt worden, genau wie Microsofts Azure IoT Edge oder Googles Cloud IoT Edge.
„Bis vor drei Jahren galt die Cloud als DER Heilsbringer der Branche, seit dem bauen und installieren wir in zunehmendem Maße kleine, kompakte Edge-Rechenzentren direkt vor Ort“, berichtet Bernhard Seibold, zuständig für das Systems Engineering bei der Thomas Krenn AG. Er berichtete von einem Boom bei Edge-Rechenzentren und führt als Grund die genannte mangelnde Bandbreite der Verbindungen zwischen Rechenzentrum bzw. Cloud und der Quelle von Daten, gerade im IoT-Umfeld. Besser sei es, die Daten direkt vor Ort auszuwerten und nur die Ergebnisse ins „Mutterhaus“ zu übermitteln.
Fazit: Was ist hier schlau?
Deutsche Unternehmen haben Sinn und Vorteil von künstlich intelligenten Systemen erkannt. Der KI-Standort Deutschland ist daher nach Ansicht des Deloitte-Analysten Milan Sallaba „eindeutig noch nicht ‚abgehängt‘“. IT-Verantwortliche haben erkannt, dass KI-Werkzeuge einen großen Mehrwert aus Daten ziehen können, die gerade in IoT-Netzen in gewaltigen Massen entstehen. Ob die Datenverarbeitung günstiger in einer Cloud oder vor Ort geschieht, muss von Fall zu Fall entschieden werden. Die Anbieter entsprechender Systeme werden sich freuen, den Anwendern Modellrechnungen präsentieren zu dürfen. Fragen Sie sie danach - das wäre ziemlich schlau.
(ID:45909731)
Machine Learning as a Service (MLaaS)
von Bernhard Haselbauer
Neue cloudbasierte KI-Services wie Machine Learning lassen innovative Geschäftsmodelle und Produkte entstehen und Rechenzentren liefern dafür die nötige Rechenleistung. Im Gepäck haben Data Center nicht nur viele Chancen für Unternehmen – sondern auch eine ganze Reihe von Anforderungen an sich selbst, denn KI-Vorgänge arbeiten mit enormen Datenmengen und bringen so manches System an seine Leistungsgrenzen. Dennoch profitieren auch Rechenzentren von den neuen Technologien. Google konnte durch KI und ML seinen Stromverbrauch um ca. 40 Prozent senken.
Untersuchungszeitraum 2018, Quelle: Rene Buest,
Die Analysten von Gartner sagen voraus, dass bis 2020 jedes dritte Rechenzentrum, das keine künstliche Intelligenz erfolgreich nutzt, seine „operative und wirtschaftliche Wettbewerbsfähigkeit verlieren“ wird.
Anbieter wie Amazon Web Services, Google und Microsoft punkten momentan mit KI-bezogenen Cloud-Services und investieren viel Geld in die neuen Technologien. Gerade der einfache Einstieg und die Bedienbarkeit dieser Services stehen im Vordergrund, weshalb die Betreiber hier bereits vorgefertigte KIs für spezielle Einsatzzwecke zur Verfügung stellen. So lassen sich die Prozesse relativ einfach in den Arbeitsablauf der Kunden integrieren. Kleine und mittlere Unternehmen haben nun die Möglichkeit, durch die Public-Cloud-Anbieter Technologien wie maschinelles Lernen zu nutzen, um neue intelligente Produkte zu entwickeln…