Softwaresysteme zur Qualitätssicherung in der Umformtechnik - Ein Ansatz für die echtzeitfähige und prozessübergreifende Qualitätsüberwachung

Benjamin Lindemann, Nasser Jazdi und Michael Weyrich

Produzierende Unternehmen stehen stets vor der Herausforderung, qualitativ hochwertige Produkte zu erzeugen, die den strengen Anforderungen der Kunden und des Gesetzgebers genügen. Das Qualitätsergebnis muss trotz entlang der Wertschöpfungskette auftretender Schwankungen und Unregelmäßigkeiten reproduzierbar sein. Das gilt speziell für die Branche der Massivumformung, die durch ihre Abhängigkeit von den Entwicklungen in der Automobil- sowie Luft- und Raumfahrtindustrie zusätzliche Anforderungen durch den dort stattfindenden strukturellen Wandel hin zur E-Mobilität und zum Leichtbau erfährt. Um diesen Herausforderungen gewachsen zu sein, werden Lösungen benötigt, die die zunehmende Komplexität entlang der Prozesskette beherrschbar machen und zu einer erhöhten Prozessstabilität und Effizienz beitragen. Dieser Beitrag stellt einen datengetriebenen Ansatz vor, der darauf abzielt, kurzfristig auftretende Qualitätsschwankungen zu verfolgen. Prozessdaten werden dazu In-Memory in einer multidimensionalen Datenbank modelliert. Auf Basis der Ergebnisse eines Online Analytical Processing (OLAP) soll in Echtzeit reagiert und steuernd auf die Prozesskette eingewirkt werden.

Die Branche der Massivumformung produziert jährlich Güter im Produktionswert von mehr als 7 Mrd. EUR und beschäftigt ca. 30.000 Mitarbeiter in vorwiegend mittelständischen Unternehmen mit einer durchschnittlichen Betriebsgröße zwischen 100 bis 200 Mitarbeitern. Über 60 % der 2,8 Mio. Tonnen Rohmaterial werden in Gesenkschmiedeteile, wie Kurbelwellen, Achsen oder Getriebeteile, umgesetzt. Verarbeitet werden größtenteils Stähle und Aluminium [1].

Herausforderungen in der Prozesskette Massivumformung

Die Wertschöpfungskette beginnt mit der Rohmaterialerzeugung, aus der das Halbzeug gewonnen wird. Dabei handelt es sich um ein vorverarbeitetes Werkstück mit einfachem Profil, das in eine für die Weiterverarbeitung notwendige Geometrie gebracht wurde. Es schließt sich der Umformprozess an, dem abhängig vom Temperaturbereich des Pressvorgangs ein Erwärmungsschritt vorausgehen kann. Das Halbzeug wird vor dem Umformen auf dem Untergesenk der Anlage platziert. Das Obergesenk stellt zumeist das geometrische Negativ des Untergesenks dar und ist verantwortlich für die Formgebung. Durch Verfahren des Werkzeugs erhält das Bauteil unter Krafteinwirkung seine charakteristische Form. Das gefertigte Bauteil wird im Nachgang einer Wärmebehandlung und einer veredelnden Weiterverarbeitung unterzogen. Am Ende der Prozesskette steht die Qualitätssicherung [2]. In Bild 1 ist die im Rahmen dieses Beitrags realisierte Modell-Prozesskette mit den für jeden Prozessschritt relevanten Prozessparametern skizziert. Zusätzlich werden zwei Prozessketten von Industriepartnern zur Validierung herangezogen.


Bild 1: Modell-Prozesskette und Datenraum.

Die Probleme, die sich entlang der beschriebenen Wertschöpfungskette ergeben, sind verfahrensbedingt, den Umgebungsbedingungen geschuldet sowie auf die geringe Vernetzung produktionstechnischer Einheiten zurückzuführen. So kann auf Schwankungen der Produktqualität bislang nur mit größerem Zeitversatz reagiert werden, da die prozessbedingten Abläufe und die Umgebungsbedingungen keine unmittelbare Qualitätsüberwachung und -kontrolle erlauben. Die Prozessstabilität wird auf Basis von Stichproben am Ende der Prozesskette erreicht. Die unzureichende Aufzeichnung und Verwertung von Sensordaten sowie die fehlende Zuordnungsmöglichkeit dieser Daten zu einzelnen Bauteilen, Chargen oder Prozessstationen stehen einer Optimierung des Prozesses sowie einer Effi zienzsteigerung im Anlagenbetrieb entgegen. Die fehlende Korrelation von Bauteileigenschaften und Prozessdaten lässt eine Gesamtoptimierung nicht zu.
Die Modell-Prozesskette und die Industrieanlagen sind durch komplexe Wechselwirkungen gekennzeichnet. Der hohe Durchsatz in der Massenfertigung und die dynamische Produktionssystematik stehen im natürlichen Widerspruch zu der Rückverfolgung einzelner Bauteile. Metallverarbeitende Prozesse sind häufi g durch extreme Betriebsbedingungen, wie bspw. hohe Temperaturen oder Kräfte, gekennzeichnet. Dies gilt in besonderem Maße für Umformprozesse und für die entsprechenden vor- und nachgelagerten Prozessschritte der betrachteten Modell-Prozesskette. Die Rückverfolgung einer möglichst kleinen Losgröße auf Shopfl oor-Ebene wird dadurch stark erschwert. Für ein Konzept zur Datenintegration ergeben sich durch den Modellprozess und die Industrieanlagen besondere Herausforderungen im Hinblick auf die Zuordnung von Prozessparametern. So wird das Rohmaterial nach dem Wareneingang durch Sägen zu Halbzeugen vereinzelt, die teilweise einzeln und vollautomatisiert oder aber gebündelt in Kisten und manuell zwischen den einzelnen Prozessschritten transportiert werden. Einige Prozessschritte erlauben dabei eine Einzelteil- bzw. Chargenverfolgung und damit eine direkte Zuordnung von Prozessparametern zu Bauteilidentifi kationen. Bei anderen ist eine solche hingegen nicht möglich, sodass diese auf der Ebene der Datenverarbeitung im Prinzip Batch-Prozesse darstellen. Darüber hinaus verhindern abtragende, die Bauteiloberfl äche beeinfl ussende Nachbearbeitungsprozesse auf der einen Seite das Beibehalten jeglicher ans oder ins Material eingebrachter Identifi kationen und erschweren auf der anderen Seite dadurch eine Zuordnung von Parametern der abschließenden Qualitätskontrolle zu den zuvor erfassten Datenräumen. Um trotz der aufgezeigten, heterogenen Datenerfassung eine durchgängige Rückverfolgung und prädikative Qualitätssicherung (Predictive Quality) realisieren zu können, ist ein einheitliches und durchgängiges Datenmodell der gesamten Prozesskette notwendig. Dazu muss der digitale Zwilling des einzelnen Werkstücks stetig mitgeführt werden. Eine gezielte datengetriebene und automatisierte Qualitätsüberwachung auf der Grundlage einer robusten Bauteilrückverfolgung konnte bislang nicht umgesetzt werden. Mithilfe eines in den folgenden Abschnitten dargestellten, OLAP-basierten Ansatzes zur Datenverarbeitung können die beschriebenen Probleme dagegen gelöst werden.

Rückverfolgung und Datenintegration

Die Grundlage für eine durchgängige Rückverfolgung eines möglichst kleinen Fertigungsloses ist die Integration einer geeigneten Infrastruktur, zum Beispiel einer Smart-Tag-Lösung, die für den Einsatz unter den zuvor skizzierten Umgebungsbedingungen geeignet ist. Anforderungen ergeben sich in besonderem Maß durch die hohen Prozesstemperaturen, die durch die induzierten elektromagnetischen Störfelder eine dezentrale Informationshaltung auf den Smart Tags erschweren. Auf der Basis einer robusten Identifi kationstechnologie kann ein Assistenzsystem für die datengetriebene Qualitätsüberwachung konzipiert und umgesetzt werden.
Der erste Schritt in einer datenbasierten Automationskette zur informationstechnischen Umsetzung der Bauteilrückverfolgbarkeit ist eine konsistente Datenerfassung. Der Datenraum beinhaltet sowohl die Sensordaten als auch die auf den Smart Tags mitgeführten Produktdaten. Um ein durchgängiges, bauteilbezogenes Datenmodell umzusetzen, registriert sich jedes Bauteil vor der Bearbeitung an der jeweiligen Prozessstation. Dies wird durch einen Lesevorgang realisiert. Die im Zuge der Bearbeitung an der Station anfallenden Prozessdaten werden dem Bauteil bzw. dessen im Datenmodell hinterlegter Identifi kation direkt zugeordnet. Über den durch die Registrierung erfassten Zeitstempel können Bearbeitungsund Verwendungszeit von Bauteil und Anlage ermittelt werden. Die Sensordaten werden mit einem Zeitstempel versehen und in das Datenmodell integriert. Auf diese Weise wird sukzessiv und in Echtzeit ein für jedes Bauteil individuelles Datenmodell generiert und im Produktionsablauf stetig aktualisiert. Entlang der gesamten Wertschöpfungskette wird das digitale Abbild der einzelnen Werkstücke in prozessabhängigen Zyklen geladen und erweitert. Am Datenmodell ist damit auch der aktuelle Bearbeitungsstand ablesbar. Das eingangs beschriebene Problem einer fehlenden Zuordnung von Prozessdaten zu Bauteileigenschaften wird dadurch behoben. Der digitale Zwilling der Werkstücke ist die Grundlage weiterführender datenanalytischer Betrachtungen.
Jedes System entlang der Prozesskette verfügt über eine eigene Steuerung und ein eigenes, autarkes Bussystem, über das Sensorwerte gelesen und Aktoren eingestellt werden können. Um die Heterogenität der Informationsfl üsse abstrahieren zu können, wird auf einem am Institut für Automatisierungstechnik und Softwaresysteme entwickelten Konnektoren-Ansatz aufgebaut, der für jedes dieser Systeme eine individuelle Kommunikationsschnittstelle vorsieht und die Informationen in einheitlicher Form einer höheren Steuereinheit zur Verfügung stellt [3]. Diese Konnektor-Anwendung wird als Client-Server-Architektur realisiert. Auf den Systemen in der Feldebene läuft die auf das Bussystem individuell abgestimmte Serveranwendung, die die tatsächlich vorhandenen Parameterwerte aufzeichnet. Die informationstechnische Grundlage ist damit eine verteilte, dynamische Rechnerstruktur, bei der jeder Rechner der Steuerungsebene über eine individuelle Datenschnittstelle zur Weitergabe der Daten an höhere Ebenen verfügt. Diese Schnittstellen werden durch den Konnektor individuell angesprochen. Auf einem übergeordneten Rechner wird ein zentraler Client implementiert, der die benötigten Daten bei den Servern anfragt. Der Ansatz ist als unabhängig von der Branche der Massivumformung zu betrachten und auch dementsprechend konzipiert, da lediglich an verteilten Rechnereinheiten zur Prozesssteuerung angesetzt wird und darüber hinaus keine weiteren Annahmen getroff en werden. Die im vorherigen Abschnitt beschriebene Anwendung zur Generierung eines einheitlichen Datenmodells kapselt die Konnektor-Anwendung, indem sie die Informationsabfrage der einzelnen Subsysteme koordiniert. Das wird dadurch erreicht, dass sie direkt mit den Lesegeräten in der Feldebene kommuniziert und das Datenmodell in einem einheitlichen Format wie XML weitergibt. Über das Auslesen der Informationen auf den Tags wird die Abfrage der einzelnen Subsysteme getriggert.
Die beiden beschriebenen Anwendungsebenen werden von einer dritten höheren Schicht vervollständigt, die echtzeitfähige Verbindungen des Client-Rechners mit externen Servern („Cloud“) verwaltet und zusätzlich eine Schnittstelle zur Rückführung von Steuerdaten zu den beiden darunter liegenden Schichten bietet. Handelt es sich bei den Servern um Datenbanken, kann die Datenübertragung beispielsweise über direkte Datenbankverbindungen erfolgen. Die Übertragung der Daten kann auf verschiedene Arten gesteuert werden. Serverseitig kann über Webservices eine konstant frequentierte Abfrage des zentralen Rechners erfolgen. Alternativ kann clientseitig ein ereignisgesteuerter Datenübertragungsvorgang eingerichtet werden. Die Entscheidung für eine Lösung ist abhängig von den bestehenden Echtzeitanforderungen. Bei der eingangs beschriebenen Prozesskette ist eine zyklische, serverseitige Datenabfrage ausreichend für eine eff ektive Qualitätsüberwachung.
Nach der Durchführung einer Datenanalyse in der Cloud werden die Ergebnisse in Form von Steuerdaten zurückgeleitet. Die Steuerdaten werden von der zweiten koordinierenden Anwendungsebene verarbeitet. So ist es möglich, abhängig von den in den vorangegangenen Prozessschritten erfassten, bauteilbezogenen Sensordaten die passenden Stellgrößen für den nächsten Prozessschritt bzw. das nächste Werkstück zu wählen. Eine Anpassung der einzustellenden Parameter über mehrere Werkstücke hinweg ist ebenfalls umsetzbar. Die Analyse dient der Adaption des aktuellen Prozessgeschehens und wird für eine situationsbasierte Qualitätsüberwachung genutzt. Die beschriebene Architektur ist in Bild 2 dargestellt.
 

Bild 2: Übersicht über die Datenintegration.

Datenmodellierung und Analyse

In der Factory Cloud wird im vorliegenden Fall eine Echtzeitdatenbank realisiert, die die Daten In-Memory verarbeitet und Online Analytical Processing ermöglicht. OLAP bietet die Möglichkeit, Daten in einer multidimensionalen Struktur zu modellieren und zu analysieren. Dabei ist die multidimensionale Betrachtung unabhängig von der Datenquelle und der Datenstruktur dieser Quelle. So ist es möglich, OLAP auf verschiedenste, heterogene Datenquellen anzuwenden. Sowohl konventionelle relationale Datenbanken, MES- und ERP-Systeme als auch diverse Dateiformate und Webservices können in eine Modellierung einbezogen werden.
Die multidimensionale Datenmodellierung ist unabhängig von der tatsächlichen physikalischen Speicherstruktur der aus verschiedenen Quellen integrierten Daten. Die integrierten Daten können zum einen relational abgelegt werden. In diesem Fall wäre nur die Modellierung multidimensional. Zum anderen kann auch die tatsächliche Speicherung multidimensional erfolgen. Dadurch würden sich zusätzlich zu den Vorteilen der Datenmodellierung noch erhebliche Geschwindigkeitsvorteile ergeben [4].
Die Dimensionen der multidimensionalen Datenstruktur ergeben sich aus den verschiedenen Sichten auf die Daten. Jede Dimension verfügt über eine interne, hierarchische Struktur über die durch die Daten navigiert werden kann. An den Verzweigungen jedes Strukturpfads stehen Attribute, die die logische Beschreibung der Daten vornehmen. Die Granularität der Datenbeschreibung steigt mit der Hierarchietiefe. Die Daten selber können für verschiedene Dimensionen in verschiedenen Granularitäten vorliegen, ohne dass dadurch eine homogene Datenmodellierung verhindert wird. So ist es möglich, stark heterogene Datenstrukturen in einer Struktur zu vereinen. Da sich im Fall von drei Dimensionen bei der Datenvisualisierung ein Würfel ergeben würde, hat sich der Begriff des „Data Cube“ etabliert [4].
Das aufgespannte Datenmodell ist die Grundlage für weiterführende Analysen. Im Sinne einer Vorverarbeitung kann eine Selektion bezüglich einzelner oder mehrerer Dimensionen erfolgen. Mit einfachen Operationen kann die hierarchische Struktur auf eine Teilstruktur eingeschränkt werden, um beispielsweise ein bestimmtes Teilproblem zu betrachten. Diese Einschränkungen können flexibel gestaltet und in allen Dimensionen umgesetzt werden. Dadurch ist eine angepasste Betrachtung der Daten und eine darauf zugeschnittene Analyse möglich.
Die flexible Datenzusammenführung heterogener Datenstrukturen wird in einem vorverarbeitenden Schritt als Grundlage für die Datenaggregation genutzt. Das beschriebene Konzept soll mit einer tiefgreifenden Datenanalyse kombiniert werden, indem es in ein Analyseframework eingebunden wird. Im Hinblick auf den in der Umformtechnik bestehenden Datenraum ergeben sich durch die Anwendung von OLAP diverse Vorteile. Entlang der Prozesskette der Massivumformung entstehen die in Bild 1 dargestellten Prozessdaten. Das vorgestellte Konzept erlaubt es, die Daten der einzelnen Prozessschritte in einem separaten oder in einem gemeinsamen Modell zu verwalten. So ist es möglich, auf einzelne Prozessstationen spezifisch zugeschnittene Analysen durchzuführen, aber auch Zusammenhänge entlang der gesamten Prozesskette abzubilden. Durch die flexible Navigation im erstellten Datenmodell können auch bauteil- oder chargenbezogene Analysen realisiert werden.


Bild 3: Datenmodellierung in einer Echtzeitdatenbank.

Das Modell für den Schritt der Umformung beinhaltet, neben den Verläufen der Prozessgrößen, wie der Geschwindigkeit des Werkzeugs oder der Presskraft, zusätzlich die Zeit, den Prozessschritt und die aus dem Smart Tag ausgelesene Identifikation als weitere Dimensionen. In Bild 3 ist eine mögliche Datenmodellierung mit den Dimensionen Produkt, Prozessschritt und Zeit beispielhaft dargestellt. Über die Dimensionen kann eine Zuordnung und Korrelation einzelner Prozessparameter stattfinden und eine Wissensbasis geschaffen werden. Die eingangs dargelegten Probleme einer fehlenden Zuordnung von Bauteil- und Prozessdaten können durch das Konzept gelöst werden. Durch Ad-hoc-Analysen können unverzüglich fehlerbehaftete Verläufe und Anomalien erkannt und Gegenmaßnahmen eingeleitet werden. Abhängig von den Ergebnissen der Analysen werden Steuerdaten generiert, die über die zuvor beschriebene Infrastruktur direkt Einfluss auf das Anlagenverhalten nehmen können. Eine Steuerung aus der Cloud ist dadurch möglich. Darüber hinaus werden über eine Benutzerschnittstelle Handlungsempfehlungen gegeben, die von einer höheren Entscheidungsebene akzeptiert oder verworfen werden können. So ist es möglich, die Entscheidung über eine Einflussnahme auf das Prozessgeschehen entweder vollautomatisiert oder mit dem Menschen als letzte Kontrollinstanz umzusetzen.
Das beschriebene Konzept für ein cloudbasiertes Assistenzsystem zur Überwachung der Qualität in der Umformtechnik wird anhand eines Modellprozesses erprobt und validiert. Der Modellprozess bildet die Sensordatenlandschaft der Massivumformung nach und beinhaltet die beschriebene informationstechnische Systemarchitektur von der Datenerfassung bis hin zur Datenmodellierung und Analyse.

Dieser Beitrag entstand im Rahmen des Projekts „Effizienzschub in der Massivumformung durch Entwicklung und Integration digitaler Technologien im Engineering der gesamten Wertschöpfungskette“ (EMuDig 4.0), das vom Bundesministerium für Wirtschaft und Energie im Rahmen des Technologiewettbewerbs „Digitale Technologien für die Wirtschaft“ (PAiCE) gefördert wird.

Schlüsselwörter:

Online Analytical Processing, Echtzeitdatenbank, Cyber-Physische Systeme, Qualitätsüberwachung, Massivumformung

Literatur:

[1] Industrieverband Massivumformung e. V.: Kennzahlen der Branche. URL: http://www.massivumformung.de/branche/kennzahlen/, Abrufdatum 10.07.2017.
[2] Liewald, M.; Karadogan, C.; Felde, A.; Lodwig, R.: Entwicklung und Integration digitaler Technologien in Prozessfolgen der Massivumformung. In: Neuere Entwicklungen in der Massivumformung (NEMU) 2017.
[3] Faul, A.; Jazdi, N.; Weyrich, M.: Approach to Interconnect Existing Industrial Automation Systems with the Industrial Internet. In: 21st IEEE International Conference on Emerging Technologies and Factory Automation (ETFA) 2016.
[4] Schwarz, H.: Konzeptueller und logischer Data-Warehouse-Entwurf : Datenmodelle und Schematypen für Data Mining und OLAP. In: Informatik Forschung und Entwicklung 18 (2004) 2, S. 53-67.