Interactive Companies Design

Um Geschäftsprozesse komplett zu optimieren, haben die Prozessautomatisierer der Namur den MSR-Begriff erweitert. (Bild: j-mel, Fotolia)

  • Auf der Namur-Hauptsitzung wurde deutlich, dass die Prozessautomatisierer sich in der Digitalisierung der Industrie neu erfinden.
  • Ihre Systeme sollen künftig die für die Gesamtoptimierung wichtigen Daten liefern und ihr Prozess-Know-how den Kontext für die Datenanalyse ermöglichen.
  • Gleichzeitig wollen und müssen sie ihre Expertise in Richtung Data-Engineering und -Analyse erweitern.

Messen, Steuern und Regeln begann mit einfachen Regelkreisen, basierend auf Temperaturmessungen. Später wurden dann Anlagenteile wie Kolonnen mit Prozessleitsystemen geregelt. Und schließlich kümmern sich Prozessautomatisierer heute um komplette Anlagen und ganze Produktionsverbünde. „Die Produktion ist Teil der Supply Chain. Wenn wir schon die Produktion regeln, warum nicht gleich die ganze Lieferkette?“, erweiterte Namur-Vorstandschef Dr. Wilhelm Otten gleich zu Beginn der Namur-Hauptsitzung im November den Scope der Prozessautomatisierung. „Industrie 4.0“, so Otten, „ist das Messen, Steuern und Regeln von kompletten Geschäftsprozessen, auch kaufmännischen und logistischen.“

Und so suchte der Anwenderverein für Prozessautomatisierung auf seinem Treffen in Bad Neuenahr nach neuen Werkzeugen, um dieses erweiterte Aufgabenfeld zu beackern: Kein Wunder also, dass sich die Namur für die diesjährige Veranstaltung mit GE Digital einen Partner gesucht hatte, der seinen Schwerpunkt in der Digitalisierung von Industrien sieht.

Neue Geschäftsmodelle erfordern Digitalisierung

Simone Hessel, Vice President Digital Transformation bei GE, adressierte die Prozessautomatisierer deshalb im Sponsorenvortrag mit dem Selbstbewusstsein eines amerikanischen Großkonzerns im Rücken: „Die Prozessindustrie steht am Scheideweg – Ihre Kunden verändern sich, dadurch entstehen für Sie neue Anforderungen – auch wenn Sie gar nicht meinen, dass sich hier etwas verändert.“ Hessel und ihr Kollege, Dr. Carlos Härtel, betonten, wie wichtig es ist, dass sich die Unternehmen der Prozessindustrie von Industrieunternehmen hin zu digitalen Industrieunternehmen verändern. Als Beispiel dienten ihnen dafür unter anderem neue Geschäftsmodelle wie das „outcome based selling“: So verkauft GE heute beispielsweise nicht mehr Flugzeugturbinen, sondern Flugleistung. Und am Beispiel der biopharmazeutischen Industrie verdeutlichten die IT-Experten, wie sie sich die Digitalisierung von Prozessen vorstellen: als dreistufigen Prozess, bei dem zunächst die Verbindung zwischen den als Inseln installierten Systemen hergestellt wird, in einem zweiten Schritt dann die Visualisierung der Daten erfolgt und schließlich der Regelkreis für ganze Geschäftsprozesse über digitale Zwillinge mit sogenannten „Feedback Loops“ geschlossen und diese so optimiert werden.

Eine Vorgehensweise, die auch von den Prozessautomatisierern der Namur-Mitgliedsunternehmen bereits beschritten wird. Diese erhoffen sich von Digitalisierung schneller auf Ereignisse in der Anlage und schließlich in Märkten reagieren zu können. „Wir müssen die Systeme verbinden und komplett computerisieren“, erklärte Dr. Kai Dadhe, Evonik, und stellte dar, dass dafür nicht nur neue Berechnungs- und Vorhersagemethoden notwendig sind, sondern auch der Wille, Geschäfts- und Arbeitsabläufe zu hinterfragen.

Doch im Verlauf des Anwendertreffens wurde deutlich, dass selbst für den ersten Schritt noch nicht das notwendige Instrumentarium vorhanden ist: Mit den Initiativen Namur MTP und Namur Open Architecture wollen die Anwender nun mit großen Schritten die Grundlagen für eine weitgehende Digitalisierung schaffen. Begleitet von den Herstellern von Automatisierungstechnik, die mit dem Ethernet fürs Feld (Advanced Physical Layer, APL) und der Gerätebeschreibung FDI Entwicklungen vorantreiben, um Daten durchgängig von den Feldgeräten in die Systeme darüber zu transportieren.

Digitalisierung erfordert Balance aus Sicherheit und Vernetzung

Dass die Vernetzung der Informationssysteme allerdings auch Gefahren birgt, wurde im Vortrag von Erwin Kruschitz, Vorstand des Sicherheitsspezialisten Anapur, deutlich. Kruschitz erklärte, dass mit der Verschmelzung von Operational Technology (OT) und der Informationstechnologie (IT) sich die Zahl der möglichen Angriffspunkte erhöht und auch die Abhängigkeit von der IT steigt. „Bereits Planungsdaten wie zum Beispiel Risikoanalysen“, so Kruschitz, „sind ein Schlüssel für Angreifer.“ Häufig wird die Security von Computersystemen im Unternehmen an Experten delegiert. Diese Sichtweise birgt Gefahren: „Wer glaubt, dass für seine Security Experten zuständig sind, der glaubt wahrscheinlich auch, dass ein Arzt für die eigene Gesundheit zuständig ist“, verdeutlicht Kruschitz, und plädiert für eine verstärkte Zusammenarbeit zwischen IT und OT.

Dabei suchen die Anwender die richtige Balance aus Sicherheit und Vernetzung. „IT-Sicherheit ist wichtig, aber wir müssen verhindern, dass sie als Totschlagargument gegen die Digitalisierung verwendet wird“, ist beispielsweise Dr. Stefan Brüggemann, BASF, überzeugt.

Von der Digitalisierung versprechen sich die Prozessbetreiber unter anderem auch eine höhere Anlagenverfügbarkeit, indem Daten durch intelligente Analysen ausgewertet werden. Brüggemann führte aus, dass es bereits heute zahlreiche Systeme gibt, mit denen sich große Datenmengen plastisch darstellen lassen. So können beispielsweise unstrukturierte Informationen, wie sie in Freitextfeldern der Arbeitsberichte von Instandhaltungspersonal zu finden sind, als Wortwolken dargestellt werden und so einen Hinweis auf wiederkehrende Problemstellungen liefern. „Der Kollege im Feld sucht digitale Dienste für seine Arbeit. An der Frage, ob diese Systeme nutzergerecht sind, wird sich entscheiden, mit welcher Vehemenz sich die digitale Transformation durchsetzen wird“, ist sich Brüggemann sicher.

Expertenwissen mit Daten statt Black-Box-Modell

Doch lassen sich mit neuen Werkzeugen zur Datenanalyse oder gar dem Einsatz von Datenwissenschaftlern die komplexen Zusammenhänge und Wirkungsmechanismen in Chemieanlagen tatsächlich erfassen? Diese Fragestellung zog sich wie ein roter Faden durch den Anwenderkongress. Während beispielsweise bei der Online-Zustandsüberwachung von Anlagen ein Flottenmanagement mit relativ einfachen Mitteln und Sensoren möglich ist, bleiben Black-Box-Methoden, bei denen Daten ohne zusätzliches Expertenwissen ausgewertet werden, bislang wenig erfolgreich. Dagegen haben die Automatisierungsanwender bereits sehr positive Erfahrungen gesammelt, wenn Daten und Expertenwissen in sogenannten Grey-Box-Modellen kombiniert werden.

Das wurde auch in einem von Dr. Thorsten Pötter, Bayer, geleiteten Workshop deutlich, in dem dieser darstellte, dass derzeit verstärkt Beratungsunternehmen der Chemie die Datenanalyse als Dienstleistung anbieten. Doch ohne Kontextbezug sind Datenanalysen zur Optimierung von Prozessen der Chemie kaum zu gebrauchen, waren sich die Workshop-Teilnehmer einig. Zu komplex sind die Abhängigkeiten der Prozessdaten von der Kinetik der Prozesse. „Ohne Kontext stochern wir nur rum“, bestätigte Dr. Thomas Steckenreiter, Technologievorstand bei Samson. Außerdem zeigte sich auch hier, dass die Datenaufbereitung – das sogenannte Data Engineering – bislang nicht systematisch genug betrieben wird und deutliche Investitionen erfordert: „Data Engineering ist zwei- bis dreimal so teuer wie Data Analytics“, so Pötter. Um die vorhandenen Datenströme automatisch zugänglich zu machen, sind Forschungsanstrengungen notwendig. „Die IT alleine wird das nicht können“, erklärte Dr. Martin Gerlach, Bayer, und fordert einen neuen Forschungsbereich „Data Engineering Science“. Klar ist aber auch, dass die Automatisierer das Thema Datenaufbereitung und -analyse nicht an andere Fakultäten werden delegieren können. Gesucht sind deshalb Qualifizierungsangebote, um die Prozessautomatisierer fit für Big Data zu machen.

Fazit: Auf der Namur-Hauptsitzung wurde deutlich, dass die Prozessautomatisierer sich in der Digitalisierung der Industrie neu erfinden: Ihre Systeme sollen künftig die für die Gesamtoptimierung wichtigen Daten liefern und ihr Prozess-Know-how den Kontext für die Datenanalyse ermöglichen. Gleichzeitig wollen und müssen sie ihre Expertise in Richtung Data-Engineering und -Analyse erweitern. 1712ct999

 

Hier finden Sie weitere Berichte zum Thema „Namur“.

Sie möchten gerne weiterlesen?