- Big Data Analyse hat ihre Tücken: Meist sind es zu viele Datensätze und Informationen, diese sind unstrukturiert und lassen sich daher nicht standortübergreifend nutzen, geschweige denn weiter verarbeiten.
- Im Sidap-Forschungsprojekt wird untersucht, wie die Datenanalyse in der Prozessindustrie automatisiert werden kann.
- Zunächst bezieht sich die Vorgehensweise auf Industriearmaturen und Stellantriebe, aber auch Pumpenanwendungen sind künftig denkbar.
Es ist so eine Sache mit der Aufbereitung von Daten im Sinne einer Big-Data-Analyse. Meist sind es zu viele Datensätze und Informationen, diese sind unstrukturiert und lassen sich daher nicht standortübergreifend nutzen, geschweige denn weiter verarbeiten. Und eine Datenpflege per Hand ist wirtschaftlich nicht darstellbar. Doch wie lässt sich die Analyse von Daten automatisieren? Damit hat sich das Sidap-Forschungsprojekt in den vergangenen drei Jahren ausführlich beschäftigt. Sidap steht für Skalierbares Integrationskonzept zur Datenaggregation, -analyse, -aufbereitung von großen Datenmengen in der Prozessindustrie. Um in großen Datenmengen bisher unbekannte Zusammenhänge aufzuspüren, wurde eine datengetriebene sowie serviceorientierte Integrationsarchitektur entwickelt. An dem Projekt waren neben dem Lehrstuhl für Automatisierung und Informationssysteme an der TU München, auch Betreiber (Bayer, Covestro, Evonik), Armaturenhersteller (Samson) und Feldgerätehersteller (Krohne, Sick) sowie IT-Unternehmen (Gefasoft, IBM) beteiligt. Langfristiges Ziel ist es, auf Basis dieses Modells Geräte- und Anlagenausfälle zu reduzieren, um die Verfügbarkeit von Anlagen zu erhöhen.
Größte Herausforderung bei der Entwicklung eines solchen Datenmodells war es, das Modell so zu gestalten, dass man einen Zugang zu den gesammelten Daten erhält, um sie später zu verarbeiten. Es ging also nicht nur darum, alle verfügbaren Informationen irgendwo abzulegen, sondern diese später gezielt abrufen zu können.
Daten zur Entscheidungsfindung aufbereiten
Dr. Norbert Fabritz, Leiter der EMR beim Technischen Service von Evonik Technology & Infrastructure im Chemiepark Marl, kennt das Problem: „Für uns stellt sich immer wieder die Frage, wie man mit Informationen aus Anlagen umgeht. Wie lassen sich Datenflüsse so aufarbeiten, dass wir die richtigen Schlüsse daraus ziehen?“
Betrachtet man allein eine Regelarmatur, wird die Fülle an Informationen, die im Laufe des Industrielebens dieser Armatur entstehen, sichtbar. Bereits im Engineeringprozess, wenn der Planer die Armatur plant, beginnt die Datensammlung. Im Anschluss erfolgt der Einbau und die Inbetriebnahme, auch hier entstehen immer wieder Daten. Während des Betriebs kommt es zu einem Defekt und die Armatur landet in einer Werkstatt, wo sie repariert und dann wieder eingebaut wird. Auch hier gibt es Fehlerprotokolle, Prüfberichte etc. Hinzu kommen Informationen über den jeweiligen Prozess und besondere Ereignisse.
Jedes Asset wird also im Laufe seines Lebens von vielen verschiedenen Abteilungen betrachtet, und jeweils relevante Daten werden häufig redundant aufgeschrieben. Es ist jedoch einleuchtend, dass viele dieser Informationen nicht für alle interessant sind. Dennoch: „Wir wollen einen Pool von Daten über die Armatur, auf die wir von verschiedenen Sichten zugreifen können. Um das Ganze noch zu verkomplizieren – wir benötigen die Informationen nicht nur von einer, sondern von allen Armaturen und dies möglichst an allen Standorten.“ Hierfür benötigt man ein allgemein gültiges Datenmodell, das bisher nicht vorhanden ist. Wie wird ein Datenmodell leicht anwendbar? Im Kern geht es dabei um drei Fragen:
- Wie lassen sich die Daten zusammenfassen?
- Welche Informationen sind wichtig?
- Wie kommt der Anwender an die für ihn wichtigen Informationen wieder heran?
Datenmodell vereinheitlicht die Datenbasis
Im Rahmen des Sidap-Projektes entstand ein generisches Datenmodell zur Vereinheitlichung der Datenbasis. Dieses lässt sich quasi als Container mit verschiedenen Schubladen vorstellen. Jede Schublade enthält andere Informationen, also z. B. zur Anlagenstruktur, aber auch verfahrenstechnische Informationen aus dem Planungsprozess, Spezifikationen der Werkstoffe oder Angaben zu Reparaturen und Wartung. Generell legt das Modell fest, wie die Daten zu beschreiben sind, damit sie korrekt weiterverwendet werden können. Sidap wird damit quasi zum Übersetzungsbuch zwischen Modell und Praxis. Dabei entscheiden zwei Aspekte über die spätere Anwendbarkeit:
- die Form, wie die Informationen abgelegt werden, also Zahlen und Einheiten oder Fließtext aus Reparaturbüchern,
- das Format, in dem später die Informationen ausgetauscht werden.
„Wir wollten aber nicht etwas vollkommen Neues, sondern auf den Werkzeugen, die uns bereits zur Verfügung stehen, aufbauen“, erklärt Dr. Fabritz. „Es gibt eine Reihe von Richtlinien und Normen, die sich zum Beispiel zur Beschreibung von Armaturen bewährt haben. Allerdings beleuchten diese immer nur einzelne Aspekte, für unsere Aufgabe wollten wir den Scope erweitern.“
Bewährtes beibehalten und erweitern
Um nur einige Beispiele zu nennen: In den vergangenen Jahren hat sich für die Beschreibung der Anlagenstruktur im gesamten Lifecycle einer Anlage das XML-basierte Tool Dexpi (Data Exchange in the Process Industry) bewährt. Dagegen beschäftigt sich die VDI-Richtlinie 5600 (MES in der Fertigungstechnik) bereits sehr detailliert mit Prozesswerten. Allerdings werden hier Informationen aus Reparaturen, Ersatzteilproblematiken etc. nicht berücksichtigt. Für Fehler- und Wartungsdaten eignet sich dagegen die DIN EN ISO 14224, und für spezifische Informationen zu Regelarmaturen ist wiederum die DIN EN ISO 60534-7 im Einsatz. Mit anderen Worten: „Es gibt keine Norm, die alles abdeckt. Daher haben wir mit unserem Metamodell eine Art Basis geschaffen“, so Fabritz.
Daher wurden nun diese einzelnen Bausteine angepasst, damit sie sich für eine umfassende Analyse im Rahmen des Sidap-Modells eignen. Zum Beispiel wurde die Funktionalität von Dexpi so erweitert, dass nun Informationen zu physikalischen Komponenten, auch unabhängig von deren Funktionen, oder Einzelkomponenten des Ventils, erhältlich sind. Zum Hintergrund: Bisher wurde das Ventil immer als Gesamtsystem im Dexpi gesehen. Es gab also keine Unterscheidung zwischen der vom Ventil auszuführenden Funktion und den existierenden Komponenten, welche diese Funktion ausführen. Wurde nun eine Einzelkomponente, also Gehäuse, Kegel oder Dichtung, beschädigt, war dies nicht abbildbar. Nach Überarbeitung wurden nun die einzelnen Ventilkomponenten modelliert, die mit definierten Wartungs-/Fertigungsinformationen versehen wurden, wie Historie oder Seriennummer. Gleichzeitig wird nun zwischen der Funktion, dem auszuführenden System und der materiell existierenden Komponente unterschieden.
Fehleranalyse soll Wartungsbedarf nicht nur von Armaturen senken helfen
Die Detailarbeit bei der Modellierung und die Erweiterung bewährter Werkzeuge hat sich gelohnt. Nur wenn die Datenbasis stimmt, können darüber später auch Algorithmen laufen, die z. B. schleichende Fehler aufspüren und Muster in Kennlinien erkennen, woraus ein Wartungsbedarf erkennbar wird. Dabei soll dies wesentlich früher möglich sein als bisher. Ziel ist es, den Wartungsbedarf zu senken, etwa indem man eine Überdimensionierung abbaut, vielleicht aber auch die Sicherheit erhöht, indem man immer wieder eine Abfrage über die gelieferten Daten laufen lässt.
Dabei sind die Stellventile aus den chemienahen Prozessen nur ein Beispiel. „Positiv wäre es, wenn man das Modell auf alle Armaturen in einem Chemiepark übertragen könnte, also auch auf Armaturen, die nicht unmittelbar verfügbarkeitsrelevant für unsere Anlagen sind, und so den Wartungsbedarf aller Armaturen senken“, wagt Fabritz zudem einen Blick in die Zukunft. Denn langfristig versprechen sich die Projektbeteiligten von dem Ansatz noch mehr: Zwar bezieht sich dieses Datenmodell nur auf Armaturen, die Vorgehensweise lässt sich jedoch auch auf andere Komponenten in der Prozessindustrie übertragen. Für Fabritz ist es durchaus denkbar, dass dieser Ansatz zum einen Input für eine spätere Norm liefert und zum anderen sich auch für Lebenszyklusbetrachtung, z. B. von Pumpen, eignen würde. „Auch Pumpen liefern im Augenblick Informationen, die nicht gesammelt bzw. unstrukturiert abgelegt werden. Ich bin überzeugt davon, dass die Vorgehensweise von Sidap auch hier anwendbar wäre.“
Projekt Sidap
Die im täglichen Betrieb entstehenden Daten liegen meist unstrukturiert vor, sodass sich diese nicht nutzen lassen. Das Forschungsprojekt Sidap (Skalierbares Integrationskonzept zur Datenaggregation, -analyse, -aufbereitung von großen Datenmengen in der Prozessindustrie) will Geräteausfälle in chemischen Anlagen besser vorhersagen, indem z. B. Messdaten besser analysiert und daraus Assistenzsysteme zur besseren Führung der Anlagen entwickelt werden können.
Sie möchten gerne weiterlesen?
Unternehmen
Technische Universität München Lehrstuhl Automatisierung und Informationssysteme
Boltzmannstraße 15
85748 Garching
Germany