Daten-Drehscheibe für die Produktion

Daten-Drehscheibe für die Produktion

(Quelle: HPE)
7. November 2020 - Der einheitliche Zugriff auf verteilte und heterogene Datenquellen ist ein Schlüssel zur wandelbaren Fabrik. Um Abhängigkeiten zu vermeiden, muss dieser Schlüssel in der Hand des produzierenden Unternehmens bleiben.
Artikel erschienen in IT Magazine 2020/11
Daten erfassen, analysieren und daraus Schlussfolgerungen und Aktionen ableiten – das ist im Kern der Dreischritt selbstlernender Systeme. Sie sind die Grundlage für den Übergang von automatisierten zu autonomen und damit wandlungsfähigen Abläufen in der Produktion. Die Ziele: Verbesserung der Gesamtanlagen-Effektivität (Overall Equipment Effectiveness) und der Aufbau neuer digitaler Geschäftsfelder.

In der spanenden Fertigung können beispielsweise Verfahren des maschinellen Lernens die Oberflächengüte eines Werkstücks digital vermessen – Algorithmen und dynamische Regelwerke generieren auf dieser Grundlage Handlungsempfehlungen, oder sie lösen automatische Aktionen aus: etwa das Aussortieren des Werkstücks, die Anpassung nachfolgender Fertigungsschritte oder die Optimierung der Fräsverfahren.

Das Fertigungsunternehmen muss dazu die Produktionslogik und die Produktionsressourcen digital abbilden und mit Zugängen zu den relevanten Qualitäts- und Prozessparametern ausstatten. Durch die Korrelation von Prozessparametern und Qualitätsparametern werden Datenmodelle erzeugt, die eine kontinuierliche Steuerung und Optimierung der Fertigung ermöglichen. Soweit die Theorie. In der Praxis stehen produzierende Unternehmen dabei vor einem Dilemma, das sich aus den Anforderungen an den Daten-Kreislauf ergibt. Diese Anforderungen, das Dilemma und eine Lösungsstrategie werden im Folgenden beschrieben.

Datenkreislauf zwischen Standorten und Zentrale

Ein IoT-Best-of-Breed-Ansatz kann die in Fertigungsumgebungen ohnehin schon bestehende Komplexität zementieren oder noch weiter erhöhen – also die typische Spaghetti-Architektur, in der mehrere Datenbanken, Analysewerkzeuge und Applikationen über individuelle Schnittstellen kreuz und quer miteinander verbunden sind. (Quelle: HPE)
Die Qualität der Datenmodelle hängt zu grossen Teilen von der Menge und Qualität des Lernmaterials ab. Ein Wartungstechniker wird das genaue Verhalten einer einzelnen Fräsmaschine vor und während eines Fehlers mögli­cherweise erst nach Jahren so gut kennen, dass er den Fehler frühzeitig identifizieren oder vermeiden kann. Könnte man die Erfahrung mit hunderten oder tausenden gleichen Fräsmaschinen aggregieren, liesse sich der Lernprozess auf Wochen oder gar auf Tage
reduzieren.

Nichts Anderes erfolgt, wenn man Daten aus den gleichen Maschinen oder Produktionsschritten aus unterschiedlichen Standorten erfasst und in ein selbstlernendes Datenmodell einspeist. Je mehr relevante Daten zur Verfügung stehen, desto schneller und besser der Lerneffekt. Man spricht hierbei von Daten-Netzwerkeffekten. Gerade industrielle Daten bergen ein erhebliches Potenzial, um durch solche Effekte nachhaltige Wettbewerbsvorteile aufzubauen. Relevant sind dabei nicht nur die direkt im Fertigungsprozess anfallenden Daten – um beim Beispiel spanende Fertigung zu bleiben: nicht nur Daten zu Oberflächenrauhheit, Fräsverfahren, Vorschub oder Schnitttiefe –, sondern beispielsweise auch Messwerte der Fräsmaschine selbst (zum Beispiel Vibration), Umweltinformationen (zum Beispiel Luftfeuchtigkeit), ausserdem logistische und betriebswirtschaftliche Parameter, etwa aus ERP-Systemen.

Die trainierten Modelle, Algorithmen und Regelwerke steuern im Produktionsablauf die Datenanalyse und Aktion. Je nach Fertigungsverfahren sind dabei geringe Antwortzeiten (Latenz) bis hin zu Echtzeit-Anforderungen eine Bedingung. Deshalb werden die Datenprozesse in der Regel in den Werken nah an Maschine oder Fachsystem ausgeführt. Dabei kommen industrielle Edge-Systeme zum Einsatz, die die Schnittstelle zwischen Industrie- und IT-Systemen bilden. Sie sorgen dafür, dass Analyse und Aktion ohne Datenübertragung an entfernte Rechenzentren oder Clouds erfolgen kann, um eine möglichst hohe Prozessstabilität zu gewährleisten.

Somit ergibt sich ein permanenter Datenkreislauf zwischen verteilten Fertigungsstandorten und der Zentrale. Die Datenmodelle werden an zentraler Stelle mithilfe der an den Produktionsstandorten entstehenden Daten laufend verbessert. In Produktionsstandorten wiederum werden die vortrainierten Modelle, Algorithmen und Regelwerke für die operative Prozesssteuerung eingesetzt.
 
Seite 1 von 4

Neuen Kommentar erfassen

Anti-Spam-Frage Vor wem mussten die sieben Geisslein aufpassen?
Antwort
Name
E-Mail
SPONSOREN & PARTNER