Aufmacher

Platz 10: Betreiber von Prozessanlagen sitzen auf einem riesigen Datenschatz. Viele unsere Leser interessierten sich daher für das , das bisher unbekannte Zusammenhänge in den Daten aufspürt, um Geräte- und Anlagenausfälle zu reduzieren. (Titel (Bild: TU München, Thaut Images, Sergey Okinchu – Fotolia.com)

  • Im Forschungsprojekt Sidap wird untersucht, wie aus großen Datenmengen bisher unbekannte Zusammenhänge aufgespürt werden können.
  • So soll der Grundstein für neue Überwachungsstrategien in der Prozessindustrie gelegt werden, um Geräte- und Anlagenausfälle zu reduzieren.
  • Um dies zu erreichen, sollen Module entwickelt werden, die Expertenwissen einbinden.
christian vermum evonik

Christian Vermum ist EMR-Planer bei Evonik, "Das Wissen um die Betriebsart ist notwendig für eine korrekte Datenselektion und das spätere Training der Diagnosemodelle."

Wer über Big-Data-Methoden redet, sollte den Aufwand für die Aufbereitung der Daten, die Entwicklung eines entsprechenden Modells und die Weiterverarbeitung dieser Informationen nicht unterschätzen. Im Sidap-Projekt hat sich ein Team aufgemacht, um neue Zusammenhänge in großen Datenmengen zu finden und mit einem entsprechenden Modell die vorausschauende Instandhaltung von Ventilen zu ermöglichen.

Eine Anlage, vier Ventile, 18 Sensoren – das ergibt über einen Zeitraum von fünf Jahren 420 Mio. Datensätze. Man sollte glauben, dass man auf dieser Grundlage genügend Informationen hat, um einem möglichen Ventilausfall frühzeitig zu begegnen. Doch dem ist mitnichten so: „Messstellen sind dazu da, eine Anlage optimal zu fahren und nicht um eine Anlage instand zu halten“, liefert Christian Vermum, EMR-Planung bei Evonik, die Erklärung, warum viele Daten nicht gleichbedeutend mit einem besseren Prozessverständnis und damit einer intelligenteren Instandhaltung sind.

Gerade darum ging es aber beim Forschungsprojekt Sidap (Skalierbares Integrationskonzept zur Datenaggregation, -analyse, -aufbereitung von großen Datenmengen in der Prozessindustrie). Mithilfe einer Datenanalyse sollten aus großen Datenmengen bisher unbekannte Zusammenhänge aufgespürt werden, um Geräte- und Anlagenausfälle zu reduzieren. In den Datenpool flossen Prozess-, Equipment- und weitergehende Sensordaten, wie etwa Bilder aus Infrarotmessungen, die nicht nur ausgewertet, sondern auch so aufbereitet wurden, dass sich daraus neue Überwachungsstrategien für Chemieanlagen ableiten lassen.

Sidap entwickelt hierzu eine datengetriebene sowie serviceorientierte Integrationsarchitektur. Hierin werden verschiedene Datenquellen mit unterschiedlichen Formaten mit einbezogen. Schließlich sollen die späteren Diagnosemodelle nicht nur Messwerte verarbeiten, sondern auch Wartungsdaten aus der Instandhaltung miteinbeziehen. Allerdings müssen die Rohdaten zunächst in ein generisches Datenformat gebracht werden. Hierfür werden Datenadapter genutzt, die die heterogenen Datenformate und Schnittstellen, zum Beispiel Daten im CSV-Tabellenformat, Daten aus dem Manufacturing Execution System (MES) oder über eine OPC-Schnittstelle in die Analyse integrieren. Gleichzeitig müssen die Daten entsprechend aufbereitet werden, etwa indem zum Beispiel Ausreißer aus dem Datensatz entfernt oder die Abtastraten der einzelnen Signale synchronisiert werden.

Fokus auf Ventilfehler

Im Sidap-Projekt sucht sich das Team um Vermum dann gezielt Stellventile aus dem laufenden Anlagenbetrieb aus, die besonders fehleranfällig sind und etwa ein- bis zweimal pro Jahr einen Fehler aufweisen. Im Fokus stehen Fehlerbilder wie der Verschleiß des Ventilkegels oder das Zusetzen des Ventils durch Fremdstoffe. Die Arbeit geht weiter mit der Auswahl und Festlegung der Datenquellen, der Erstellung eines Konzeptes, welches die Datenaggregation, die Selektion, die Modellierung und Merkmalgewinnung umfasste, bevor überhaupt an eine Fehlerdiagnose zu denken ist. Die Integration, Aggregation und Aufbereitung der Daten wird von einer Datenmanagementplattform übernommen.

„Jeder spricht von der vorausschauenden Instandhaltung, aber was das in der Realität bedeutet, darüber machen sich die wenigsten eine Vorstellung“, so die Erfahrung von Vermum. „Schon die Entwicklung und die Verifizierung eines Modells benötigt viel Fleißarbeit und Experten-Know-how.“ Für die Analyse der Ventilfehler kommen verschiedene Modelle zum Einsatz. Eines der angewandten Modelle für Veränderungen an einem Stellventil ist die Soll-Ist-Abweichung beim Durchflusskoeffizienten. Vereinfacht gesagt: Eine Vergrößerung des Durchflusses weist auf einen Verschleiß hin, eine Reduzierung des Querschnittes auf z. B. ein Fouling. Doch einfach ist dieses Modell ganz und gar nicht.

Messdaten eignen sich nicht immer für die Instandhaltung

Eine der ersten Erkenntnisse, die sich einstellte: Die Messwerte sind eigentlich nicht die richtigen. „Die Ventile steuern Durchflüsse, und hier kommt es zum Beispiel immer zu Totzeiten, wenn sie vor einem Behälter installiert wurden. Mit anderen Worten, häufig stimmt weder die Menge des Durchflusses noch der Zeitpunkt der Messung“, so die Erfahrung von Vermum. Eine weitere Herausforderung: Aus den Daten lässt sich nicht unmittelbar auf den Zustand der Anlage rückschließen, etwa ob die Anlage gerade in Teillast fährt, sich im Anfahren oder aber im Regelbetrieb befindet. „Aber gerade das Wissen um die Betriebsart ist notwendig für eine korrekte Datenselektion und das spätere Training der Diagnosemodelle“, klärt Vermum auf.

Auch die Modellierung selbst gestaltet sich sehr aufwendig. Zwar gibt es für die vorliegenden Problemstellungen bereits mathematische Algorithmen – Out-of-the-Box-Versprechungen für Big-Data-Lösungen in der Prozessindustrie sind jedoch selten umsetzbar. Das Modell muss trainiert werden. Hier beeinflusst der Datenanalyst sowohl die Modellparameter als auch iterativ den vorhergegangenen Schritt der Datenaufbereitung. „Das bedeutet, dass alle erhaltenen Daten durch Experten validiert werden müssen“, erklärt Vermum weiter. „Und hierfür benötigt man viel Hintergrundwissen, um zu beurteilen, ob die Daten schlüssig sind.“ Rund vier bis fünf Monate dauerte es, bis das endgültige Modell stand. Immer wieder wurden die Daten mit den tatsächlichen Ereignissen und Aufzeichnungen aus der Instandhaltungswerkstatt verglichen. Und selbst diese Validierung war häufig nicht einfach. „Nicht immer lässt sich ein Schaden den Daten aus der Instandhaltung eins zu eins zuordnen“, so Vermum.

PM3A8902_b

Da die bisherige Sensorik nicht die – für den Projektzweck – richtigen Daten liefert, wurde an einem Stellungsregler von Samson zusätzliche Sensorik installiert.

Noch zu viele Fehlalarme

Mit der angewandten Methode konnten 88 % (15 von 17) der Einträge in der Fehlerliste durch entsprechende Angaben aus der Instandhaltung bestätigt werden. Dabei wurde richtig erkannt, ob überhaupt ein Fehler vorlag und, falls möglich, auch das korrekte Fehlerbild zugeordnet. Zwei aufgetretene Fehler wurden jedoch nicht erkannt. Problematisch sieht Vermum noch die Zahl der Falschmeldungen, weil sie das Vertrauen der Anlagenfahrer belasten und ihn unter Umständen auch zu unnötigen Maßnahmen veranlassen, zum Beispiel zum Herunterfahren einer Anlage. Unter allen 54 gemeldeten Fehlern lag in 39 Fällen kein Fehler am Ventil vor, sondern eine anderweitige Anomalie im Prozess. Solche Anomalien entstehen beispielsweise durch die oben erwähnten instationären Betriebsbedingungen, bei denen das Modell eine Abweichung zum gelernten, normalen Anlagenverhalten feststellt. Die Berücksichtigung des aktuellen Betriebszustands kann daher die Rate an Fehlalarmen senken.

Zusätzliche Sensoren sollen die richtigen Daten liefern

Aus dieser Erfahrung ergeben sich für Vermum weitere Aufgabenfelder. So muss seiner Meinung nach die Evaluierung der Messdaten schneller möglich sein. Hier wäre der Datenaustausch über mobile Bediengeräte hilfreich, damit die Informationen über Prozesszustände zeitnah zugeordnet werden. Im Augenblick wird die Messdatenarchivierung meist durch die Dokumentationspflicht des Betreibers bestimmt, sodass Datenpunkte aggregiert und nicht separat gespeichert werden, was für eine nachgelagerte Datenanalyse aber hilfreich wäre.

Da die bisherige Sensorik nicht die – für diesen Zweck – richtigen Daten liefert, empfiehlt es sich, zusätzliche Sensorik am Stellungsregler zu installieren. Dafür wurde ein Stellungsregler von Samson aufgerüstet und wird nun im Feld erprobt. Dazu gehört z. B. der Einsatz von Wireless Hart, mit dem Daten drahtlos übertragen werden können, aber auch ein Körperschallsensor und ein Sensor für die Mediumstemperatur. Noch wirken die zusätzlichen Sensoren am Stellungsregler leicht überdimensioniert, aber: „Wir müssen zunächst schauen, dass die Sensoren und die Diagnostik rückwirkungsfrei arbeiten, die Tauglichkeit in der Praxis testen, etwa wo die Grenzen bei der drahtlosen Übertragung liegen oder wie man die Verkabelung flexibel gestalten kann. Und wir müssen uns Konzepte für die Einbindung der Daten in unsere IT-Infrastruktur überlegen“, zählt Vermum zukünftige Überlegungen auf.

Zudem soll die Anwendung so modifiziert werden, dass eine Anwendung im SAP-System möglich ist. Unter dem Namen AIN soll eine Datenbasis zum Sammeln und Verteilen der Daten aufgebaut werden. Hierfür werden Module benötigt, die Expertenwissen einbinden. Und dieses Experten-Know-how wird auch in Zukunft gefragt sein, denn nur aus guten und schlüssigen Daten lassen sich die richtigen Rückschlüsse ziehen, um das übergeordnete Ziel des Sidap-Projektes – eine höhere Anlagenverfügbarkeit– zu erreichen.

Zum Projekt: Sidap

2 DataCycle_Operator_Maint

Prinzip des Daten-Zyklus im Projekt Sidap.

Im täglichen Betrieb entsteht ein kontinuierlicher Strom an Messdaten, dazu kommen Qualitäts-, Auftrags- und Wartungsdaten, die viele Informationen über Prozesszustände liefern. Allerdings liegen viele dieser Daten unstrukturiert vor, so dass sich diese nicht nutzen lassen. Das Forschungsprojekt Sidap (Skalierbares Integrationskonzept zur Datenaggregation, -analyse, -aufbereitung von großen Datenmengen in der Prozessindustrie) will Geräteausfälle in chemischen Anlagen besser vorhersagen, indem z. B. Messdaten besser analysiert und daraus Assistenzsysteme zur besseren Führung der Anlagen entwickelt werden können. Daran beteiligen sich die Unternehmen Evonik und Bayer (Betreiber), Gerätehersteller (Samson, Krohne und Sick) und Partner aus der IT (Gefasoft und IBM). Wissenschaftlich begleitet wird das Projekt vom Lehrstuhl für Automatisierung und Informationssysteme der TU München. Letzterer übernahm u. a. die Entwicklung der Modelle und die Integration aller Informationen in eine Datenmanagementplattform.

 

Der Theorie zur Industrie 4.0 steht momentan noch die betriebliche Wirklichkeit im Weg, so eine Umfrage der Technischen Universität München unter Namur-Mitgliedern. Im Mai 2017 wurden die stimmberechtigten Mitglieder sowie Kontaktpersonen und AK-Leiter der Namur zum Thema „Big-­Data-Analyse“ befragt.

Sie möchten gerne weiterlesen?

Unternehmen

Technische Universität München Lehrstuhl Automatisierung und Informationssysteme

Boltzmannstraße 15
85748 Garching
Germany