Big Data Analytics in der Fertigung „Cloud- und IoT-native“ ist gefragt

19. Juni 2018

Hersteller wissen sehr genau, welche Parameter sie von ihren ausgelieferten Produkten auslesen und auswerten müssen. So kennen zum Beispiel die Fertiger von kunststoffverarbeitenden Maschinen im Allgemeinen die Umweltparameter, die zu Wartungsarbeiten an Maschinen führen oder den Ausschuss erhöhen. Das Potenzial, das in diesem Wissen steckt, ist in der Tat enorm. Doch heben lassen sich diese Schätze nur mit Big Data Analytics.

Bekannte Größen

Quelle: Snowflake Computing

Vielleicht winkt der ein oder andere bereits ab, wenn er den Begriff Big Data Analytics hört. Denn die Idee, Betriebsdaten von bereits ausgelieferten Maschinen und Anlagen auszulesen und zu analysieren, ist in der Tat nicht mehr ganz neu. Viel ist bereits über neue Servicemodelle wie vorausschauende Wartung und entsprechende erfolgreiche Projekte geschrieben worden. Preisgünstige Sensoren und neue Übertragungs- und Speicherungsmodelle à la Cloud Computing machen es möglich. Richtig ist ferner, dass es sich hierbei um große Datenmengen handelt. Doch erscheint es bei näherem Hinsehen nicht ganz korrekt zu sein, bereits bei vorausschauender Wartung von Big Data Analytics zu sprechen.

Der Grund dafür ist zunächst einmal weniger ein technischer als ein konzeptioneller. Denn in der Regel wissen die Hersteller ganz genau, welche Kenngrößen sie von ihren ausgelieferten Produkten auslesen und auswerten müssen. So kennen zum Beispiel die Fertiger von kunststoffverarbeitenden Maschinen im Allgemeinen die Umweltparameter, die zu Wartungsarbeiten an Maschinen führen oder den Ausschuss erhöhen. Das Potenzial, das in diesem Wissen steckt, ist in der Tat enorm.

Denn anstatt „nur“ tolle Maschinen zur Kunststoffverarbeitung zu produzieren und auszuliefern, lässt sich in diesem Beispiel ein neues Geschäftsmodell denken. Indem Wartungszeiten und Ausschussquoten minimiert werden, wandelt sich der Anbieter vom Maschinenfertiger mit angeschlossenem Service zum Produktions- und Qualitätsoptimierer mit angeschlossener Fertigung. Nicht mehr die eigene Fertigung steht im Zentrum des Geschäftsmodells, sondern fest definierbare Produktionszeiten und -mengen beim Kunden in einer vereinbarten Qualität.

Und dennoch: Auch in diesem Beispiel, das in eine substanzielle Weiterentwicklung des Geschäftsmodells mündet, geht es im Kern immer noch um das Optimieren des Bekannten. Wer gedanklich dabei stehenbleibt, hat jedoch das Wesen der digitalen Wirtschaft noch nicht zur Gänze verstanden. Denn es geht darum, mit den Mitteln der neuesten digitalen Technik echte Innovationen zu entdecken und zu entwickeln. Dabei können gerade diejenigen Daten, die bislang als unwesentlich angesehen und deshalb nicht gespeichert und ausgewertet werden, eine entscheidende Rolle spielen.

Messen, was messbar ist

Quelle: Snowflake Computing

Der Philosoph Arno Baruzzi hat das Wesen der Moderne in drei Grundsätzen zu fassen versucht: Messen, was messbar ist, und was nicht messbar ist, messbar machen. Machen, was machbar ist, und was nicht machbar ist, machbar machen. Und: Vorstellen, was vorstellbar ist, und was nicht vorstellbar ist, vorstellbar machen.

In der Digitalisierung fließen alle drei Grundsätze zusammen. Alles ist digital, damit virtuell und wird dadurch vorstellbar. 3D-Drucker und neue Erkenntnisse der Materialwissenschaft sorgen dafür, dass immer mehr machbar wird. Ausgangspunkt bleibt aber wie in den Anfangszeiten der modernen Wissenschaft das Messen. Diese Aufgabe übernehmen in der digitalen Wirtschaft die Sensoren. Wer mehr erkennen und sehen will als das ohnehin schon Bekannte, der sollte damit messen, was auch immer messbar ist.

Die dabei anfallende Datenmenge stellt anders als früher – Cloud sei Dank – kein Problem mehr da. Nie war Speicherplatz günstiger als heute. Doch das ist nur die halbe Geschichte. Vielmehr kommt es darauf an, diese Daten beliebig analysieren zu können. Das ist keine reine Mengenfrage, sondern hat auch eine zeitliche Dimension, berührt das Problem unterschiedlicher Datenformate und stellt besondere Anforderungen an die Leistungsfähigkeit der Analysesysteme.

Zunächst die zeitliche Dimension: Wer zum Qualitätsoptimierer wird, muss die Umwelt- und anderen Parameter in der Produktion in Echtzeit messen können. Dann die Formatfrage: Wer die gesammelten Daten beliebig oft und auf unterschiedliche Art und Weise befragen will, darf nicht von langwierigen Prozessen zur Datentransformation behindert werden. Und schließlich die Leistungsanforderung: Vor allem wer beides will, Echtzeitüberwachung und beliebig häufige und unterschiedliche Auswertungen, stößt an die Grenzen herkömmlicher Analysesysteme, ob sie nun im eigenen Rechenzentrum oder in der Cloud implementiert sind.

Cloud könnte die reflexartige Antwort auf die Leistungsanforderung lauten. Und das nicht zu Unrecht. Die Cloud bietet fast unbegrenzte Rechen- und Speicherressourcen. Doch leider ist damit das Problem nur zum Teil gelöst. Denn die Frage, wie die Datenexplosion zu bewältigen ist, hängt nicht nur mit Ressourcen, sondern auch mit der Architektur der Lösungen zusammen, mit deren Hilfe die Informationen bearbeitet werden.

Bei klassischen Datenbank-Management-Systemen (DBMS) – und das gilt auch für deren Cloud-Varianten – steht das Verhältnis zwischen Speicher- und Rechenressourcen fest, was eine bedarfsgerechte Ressourcensteuerung unmöglich macht. Zudem lässt sich die Arbeitslast zwar parallelisieren, doch das Problem der so genannten Nebenläufigkeit bleibt trotzdem ungelöst. Das bedeutet, dass die Anzahl der gleichzeitig möglichen Datenanalysen ohne spürbare Leistungseinbußen beschränkt ist.

Die Zahl der Datenanalysen steigt jedoch in den Unternehmen. Denn die Zahl derer, die Fragen an den Datenbestand stellen, wächst mit der Digitalisierung unaufhaltsam an. Nicht mehr nur die betriebswirtschaftlich orientierten Analytiker untersuchen die vorhandenen Informationen, sondern immer mehr auch die Fachanwender, zum Beispiel aus der Produktentwicklung und der Produktion.

Das gilt nicht nur für große Unternehmen, sondern genauso auch für den Mittelstand. In einer Systemarchitektur, in der die Speicher- und Rechenebenen voneinander getrennt sind, lässt sich für jede dieser Abfragen ein eigenes Rechencluster implementieren. Jedes davon lässt sich vorkonfigurieren, so dass es bei Bedarf gestartet, aber auch wieder abgeschaltet werden kann. Durch detailliertes Wissen über die Daten müssen diese nicht als Ganzes aufwendig und zeitraubend kopiert werden, um sich auswerten zu lassen. Das erst erlaubt eine rein bedarfsorientierte Ressourcennutzung, die entsprechend abgerechnet werden kann. Leistung und Kosten stehen in einem Verhältnis, das der digitalen Wirtschaft angepasst ist.

Analysen im IoT-Zeitalter

Dies ist die grundlegende Voraussetzung dafür, Szenarien wie die Echtzeitanalyse von Umweltparametern und darüber hinaus gezielte Auswertungen in unterschiedlicher Häufigkeit und Lastanforderung gleichzeitig, ohne Leistungseinbußen und mit einem betriebswirtschaftlich vertretbaren Kostenaufwand Wirklichkeit werden zu lassen.

Das ist jedoch nur eine Seite der Medaille. Denn mindestens ebenso wichtig ist in diesem Szenario die Fähigkeit, Sensordaten über den unmittelbaren Monitoring-Zweck hinaus im Übermaß zu sammeln und dennoch in Echtzeit verarbeiten zu können. Dies geht nur, wenn die Sensordaten im nativen Format in die DMBS-Lösung eingespeist werden können. Üblich sind hier insbesondere die Formate XML sowie JSON.

Zudem müssen diese Daten so in das Datawarehouse eingespeist werden, dass sie sich später für die verschiedensten Auswertungen aufbereiten und nutzen lassen, ohne schon beim Speichern einen klassischen ETL (Extract, Transform, Load)-Prozess durchlaufen zu müssen, bei dem die Beziehungen zwischen den verschiedenen Daten festgelegt werden. Das schränkt Art und Umfang der möglichen Auswertungen natürlich ein. Wer darüber hinausgehen möchte, müsste weitere Transformationen am Datenbestand vornehmen.

Es ist jedoch möglich, ein Datawarehouse so zu designen, dass semi-strukturierte Daten ohne festes Schema im nativen Datenformat eingespeist und spaltenorientiert abgelegt werden. Die Daten werden in der Folge erst beim Auslesen für die konkreten Auswertungen automatisch strukturiert. Das verkehrt die Reihenfolge des ETL-Prozesses und setzt den Schritt „Transform“ an die letzte Stelle im Sinne von ELT. Messungen haben ergeben, dass die Auswertungsgeschwindigkeit dadurch nicht leidet. Umgekehrt werden Analyseszenarien, die den Anforderungen des IoT-Zeitalters entsprechen, erst technisch möglich und wirtschaftlich sinnvoll. Insbesondere die Analyse klassischer strukturierter Daten zusammen mit semi-strukturierten Daten in einem System macht das Beantworten neuer Fragestellungen möglich.

Das Potenzial der Digitalisierung lässt sich in der Fertigung erst dann vollständig heben, wenn die Unternehmen Datawarehouse-Lösungen nutzen, welche die Möglichkeiten des Cloud Computing konsequent nutzen, also nicht nur die unbegrenzten Ressourcen, sondern auch die Elastizität. Zudem müssen solche Lösungen nicht nur Cloud-nativ, sondern auch IoT-nativ sein und optimal mit semi-strukturierten Daten umgehen können.

Die Zukunft der Fertigungsunternehmen liegt unabhängig von ihrer Branche und Größe in den Informationen und Erkenntnissen, die in den Daten, insbesondere den semi-strukturierten, schlummern. Ohne Cloud- und IoT-native Datewarehouse-Lösungen bleiben diese weiterhin „Das unentdeckte Land“. Alle Star-Trek-Fans wissen, dass dies der Titel des sechsten Kinofilms der Besatzung des Raumschiffs „Enterprise“ ist und hier die Zukunft meint. Weniger bekannt dürfte hingegen sein, dass dieser Titel Shakespeares Drama Hamlet entnommen ist, dort aber auf den Tod anspielt. Es wird also höchste Zeit, die Zukunft zu entdecken und zu gestalten.

Thomas Scholz

ist Sales Engineer bei Snowflake Computing

Hier geht es zu Snowflake Computing

Lesen Sie auch