Daten-Drehscheibe für die Produktion

Daten-Drehscheibe für die Produktion

Artikel erschienen in IT Magazine 2020/11

Bausteine einer Data Fabric

Eine Data Fabric kann sowohl das Komplexitäts- als auch das Abhängigkeitsproblem lösen. Ein Produktionsunternehmen erhält damit einen einheitlichen Zugriff auf Daten, die auf unterschiedlichste Systeme und beliebig viele Standorte verteilt sein können. (Quelle: HPE)
Die Data Fabric beruht auf einer offenen und durchlässigen Architektur. Im Folgenden werden die wichtigsten Bausteine entlang der Prozesskette Akquisition, Aggregation, Analyse und Aktion beschrieben:

Akquisition: Die Datenakquisition geschieht mit Software-Bausteinen, die über Programmierschnittstellen (API) auf Datenbestände zugreifen, etwa auf die SQL-Datenbank des ERP-Systems, die Sensordaten einer Fräsmaschine oder die NoSQL-Datenbank einer Cloud-Applikation. Sie wandeln die jeweiligen Industrieprotokolle in IP-Pakete um und erschliessen somit die Vielfalt der Datenquellen.


Aggregation: Über Daten-Pipelines fliessen die Daten aus Quellsystemen in die Data Fabric, um sie durch Messaging-Systeme den Zielanwendungen zugänglich zu machen. In diesem Zuge erfolgt häufig eine Selektion und Verdichtung der Daten, da in der Regel nicht alle Quelldaten zur Weiterverarbeitung relevant sind. Ausserdem können die Daten in einem sogenannten Data Lake abgelegt werden. Dieser Datensee aggregiert die Fülle heterogener produktionsbezogener Daten, um einen möglichst umfangreichen Datenbestand für das maschinelle Lernen zu schaffen. Anders als ein traditionelles Data Warehouse kann ein Data Lake auf diverse Standorte und Umgebungen verteilt sein – etwa auf Produktionsstandorte, Rechenzentren oder Clouds. Per Mandantensteuerung wird kontrolliert, welche Benutzer in welcher Weise auf welche Datenbestände zugreifen dürfen. So lässt sich der verteilte Data Lake auch über mehrere Firmen hinweg nutzen, ohne die Datenhoheit der beteiligten Firmen zu beeinträchtigen.

Analyse: Mittels Data Taps (Datenzapfhähne) können Datenanalysten sowohl auf die operativ zirkulierenden Daten wie auch auf den verteilten Datensee zugreifen, um mit Datenmodellen zu experimentieren, diese zu trainieren, zu verfeinern und laufend zu aktualisieren. Mittels Stream Analytics – der echtzeitnahen Analyse von Ereignisdatenströmen – kommen die trainierten Modelle dann für die Überwachung der Sensordaten der laufenden Produktion zum Einsatz. Sie erkennen dabei zum Beispiel Abweichungen oder auffällige Häufungen, die auf sich abzeichnende Störungen hinweisen. Stream Analytics ist damit die Grundlage für autonome Aktionen im operativen Betrieb ebenso wie für eher mittelfristige Interventionen, etwa die vorausschauende Wartung.

Aktion: Auf Basis von Algorithmen beziehungsweise Geschäftslogiken werden Aktionen ausgelöst, etwa die Eröffnung eines Service-Auftrags, sofern eine Maschine aufgrund von Verschleiss nicht mehr die gewünschte Qualität produziert. Darüber hinaus können nachgelagerte Prozesse auf Basis dieser Erkenntnis angepasst werden, um die Qualität wieder in den Toleranzbereich zu bringen. Hierbei spricht man von selbstoptimierenden beziehungsweise autonomen Systemen.

Container als technologische Grundlage

Für die Data Fabric kommt Container-Virtualisierung als technologische Grundlage zum Einsatz. Damit lässt sich die Geschäftslogik der Data Fabric über Produktions- und Logistik-Standorte, Rechenzentren und Clouds verteilen und einheitlich betreiben. Container und Container-Orchestrierung mit Kubernetes sind heute die Mittel der Wahl, um verteilte und weitgehend plattformunabhängige Anwendungen aufzubauen. Dabei lässt sich heute auch das Problem der Daten-Persistenz lösen, sodass auch monolithische Applikationen – etwa MES oder PPS – containerisiert werden können. Unternehmen erreichen damit den unschätzbaren Vorteil einer homogenen Umgebung mit entsprechenden Effizienz- und Transparenzvorteilen im Betrieb.

Beim Aufbau einer solchen Data Fabric muss jedes Unternehmen für sich die Frage «make or buy» beantworten. Es stehen heute eine Fülle von Technologien und Open-Source-Werkzeugen zur Verfügung, mit denen ein Unternehmen eine Data Fabric in Eigenregie aufbauen kann. Die Alternative dazu sind kommerzielle Standardprodukte. Dabei handelt es sich um massiv skalierbare verteilte Dateisysteme, mit denen sich auch Datenbestände im Petabyte-Bereich performant bewältigen lassen. Zudem unterstützen solche Plattformen die Analyse verteilter Datenbestände und bieten Funktionen für die persistente Speicherung von Daten in Container-Umgebungen.

Neuen Kommentar erfassen

Anti-Spam-Frage Wieviele Fliegen erledigte das tapfere Schneiderlein auf einen Streich?
Antwort
Name
E-Mail
GOLD SPONSOREN
SPONSOREN & PARTNER