Jeder spricht mit jedem und alles ist miteinander vernetzt – diese Vision zeichneten in den vergangenen drei Jahren zahlreiche Automatisierungsexperten von der künftigen Struktur automatisierter Anlagen. Die klassische Automatisierungspyramide, bei der Feld-, Prozessleit-, Betriebsführungs- und Unternehmensführungsebenen sauber und streng hierarchisch getrennt sind, löst sich dabei auf. Die bislang überwiegend „dummen“ Sensoren der Feldebene werden „smart“, und schicken jede Menge Zusatzinformationen an die (Leit-)Systeme, die es erlauben, Prozesse ständig zu optimieren und ungeplante Anlagenstillstände beispielsweise durch vorausschauende Wartung auf Basis von Diagnosedaten aus den Feldgeräten zu vermeiden. Soweit die rosa Zukunft in der Theorie.
Die Wirklichkeit sieht bislang anders aus: Diagnosedaten sind in der Regel in den Feldgeräten gestrandet und werden – wenn überhaupt – nur bei der Inbetriebnahme neuer Anlagen genutzt. Für die Zusatzinformationen aus dem Feld fehlt es an den kommunikativen Voraussetzungen: Über das 4…20 mA-(Hart)-Signal lassen sie sich nicht übertragen, und selbst den Chemie-tauglichen Feldbussystemen fehlt für die Datenflut bislang die notwendige Bandbreite, Funktechniken wie Wireless Hart oder ISA100 werden dagegen aus Sicherheitsgründen nicht für Regelaufgaben akzeptiert. Zudem wollen die Chemie-Automatisierer unbedingt vermeiden, dass Automatisierungsfunktionen bzw. Daten für Monitoring und Optimierung mit geringerer Verfügbarkeit auf die Prozessregelung rückwirken.
Diskussion um zweite Kommunikationsebene als Auslöser
Das Dilemma wurde auf der Namur-Hauptsitzung vor einem Jahr besonders deutlich: Dort diskutierten Anwender und Gerätehersteller den steigenden Bedarf an smarten Sensoren und beklagten gleichzeitig die bislang schleppende Entwicklung einer leistungsfähigen Kommunikationstechnik unter den Randbedingungen der geforderten Zweileiter-Technik im Ex-Bereich. „Warum nicht der klassischen Feldverdrahtung einen zweiten Kommunikationskanal, beispielsweise per Funk, zur Seite stellen?“, fragte die CT-Redaktion auf der traditionellen Pressekonferenz am ersten Veranstaltungstag – und entlockte Namur-Vorstandschef Dr. Wilhelm Otten eine folgenschwere Antwort, deren Veröffentlichung Namur-intern in den darauf folgenden Wochen für Diskussionsstoff sorgte: „Eine zweite Kommunikationsebene könnte eine Lösung für die Zukunft sein.“
Die Diskussion mündete schließlich in ein Projekt, mit dem die Anwender nicht weniger als die zukünftige Struktur der Automatisierung von Prozessanlagen beschreiben: Die Namur Open Architecture – NOA. Darin wird die klassische Automatisierungspyramide nicht aufgelöst, sondern so erweitert, dass schnelllebige IT-Komponenten von der Feldebene bis zur Unternehmensführung einfach integriert werden können, ohne die Verfügbarkeit und Sicherheit der Anlage zu gefährden. Gemeint sind unter anderem der Einsatz neuer, kostengünstiger Sensoren und Kommunikationstechnologien, beispielsweise drahtlos kommunizierender, batteriebetriebener Temperatur- oder Vibrationssensoren, die für Monitoring- und Optimierungsaufgaben eingesetzt werden. „Mit NOA nehmen wir den Bremsschuh der Pyramide weg, ohne die Vorteile der alten Struktur aufzugeben“, konkretisiert Namur-Vorstand Dr. Thomas Tauchnitz: „Die offene Architektur schafft Räume für die Industrie 4.0.“ Der Zug dahin hat bereits Fahrt aufgenommen, ist sich Namur-Vorstand Dr. Thomas Steckenreiter sicher: „Unsere Betriebe bauen bereits selbst Lösungen und werfen die Automatisierungspyramide komplett durcheinander. Da müssen wir schnell aufklären, was bereits möglich ist – und wir müssen sicher stellen, dass kein Chaos entsteht“, skizziert Steckenreiter die aktuelle Situation.
Aufwand für zusätzliche Instrumentierung verringern
Ein konkretes Beispiel ist die Vorhersage des Foulingverhaltens an einem Wärmeübertrager – dafür sollen kostengünstig zusätzliche Messungen installiert werden. Da die Sensoren nicht für die online-Prozessführung benötigt werden, wäre eine Installation in der Kern-Automatisierung unnötig aufwendig. Aber auch die Überwachung von Maschinen im Plant-Asset-Managementsystem des Maschinenlieferanten kann so ohne Integration in die Kern-Automatisierung realisiert werden. Künftig sollen zudem nicht nur Großmaschinen sondern auch Standardpumpen überwacht werden.
Solche Applikationen können auch in neue Geschäftsmodelle münden: „Neue Konzepte wie NOA bedeuten für uns neue Geschäftsmöglichkeiten“, ist sich Takashi Nishijima, CEO und Präsident vom Sitzungssponsor Yokogawa sicher. Unter dem Motto „Co-Innovation Tomorrow“ will der Automatisierungshersteller künftig mit Prozessbetreibern und anderen Automatisierungsanbietern zusammenarbeiten, um neue Geschäftsmodelle und Lösungen zu entwickeln. So berichtet beispielsweise Yokogawa Deutschland-Chef Dr. Andreas Helget von der Möglichkeit, auf Basis von Big-Data-Auswertungen vorherzusagen, wann ein Polymerisationsprozess den Reaktionspfad verlässt und abgeschaltet werden muss. Auf Basis einer statistischen Multiparameter-Auswertung kann das Abschaltkriterium festgelegt werden. „Statistische Big-Data-Methoden haben sich in der Verfahrenstechnik bislang nicht durchgesetzt – zu Unrecht, wie wir meinen“, so Helget.
Neue Big-Data-Methoden sollen die Datengräber nutzbar machen
Auch die Anwender wollen mehr aus ihren Prozessdaten machen. „Wir sind stolze Besitzer von 20 Jahre alten und bislang ungenutzten Datengräbern. Industrie 4.0 wird uns die Möglichkeit geben, daraus Wissen zu ziehen“, so Tauchnitz. Dass dennoch auch zusätzliche Sensoren „frische“ Daten für die künftigen Applikationen liefern müssen, wurde im Workshop „Datengetriebene Ansätze in der Prozessindustrie“ deutlich. So berichtete Prof. Birgit Vogel-Heuser von der TU München über das Projekt Sidap (Skalierbares Integrationskonzept zur Datenaggregation, -analyse, -aufbereitung von großen Datenmengen in der Prozessindustrie) im Rahmen dessen untersucht wurde, inwiefern historische Prozessdaten in Big-Data-Technologien genutzt werden können, um Ausfälle von Armaturen und anderer Assets vorherzusagen. Dafür werden Daten aus verschiedensten Quellen kombiniert und mit einem gemeinsamen Datenmodell analysiert. Im Praxistest waren allein aus historischen Daten keine Vorhersagen möglich, weil diese unvollständig waren und zu viele Fehler enthielten.
„Prozessdaten müssen künftig wie Strom aus der Steckdose zur Verfügung stehen“, hatte bereits Tobias Schlichtmann von der BASF im vergangenen Jahr auf der Namur Hauptsitzung gefordert. „NOA beschreibt die Anforderungen dafür, dass wir auf der einen Seite sichere, verfügbare und gut geregelte Anlagen haben, und auf der anderen Seite die Industrie-4.0-Lösungen bekommen, um größere Datenmengen zur Verfügung stellen zu können“, konkretisiert Otten den Nutzen der neuen Automatisierungsarchitektur: „Unsere Anlagen wurden für die Prozessführung instrumentiert, jetzt haben wir die Methode, um kostengünstig Daten für Anwendungen wie das Plant Asset Management zu gewinnen.“
Unterscheidung zwischen Kern-Automatisierung und Monitoring-Aufgaben
In der Praxis soll das in der NOA-Welt künftig wie folgt funktionieren: „NOA unterscheidet zwischen der Kern-Automatisierung und einer offenen Systemwelt für Monitoring- und Optimierungsaufgaben. „Die Daten der bisherigen Kern-Automatisierung werden durch offene Schnittstellen wie beispielsweise OPC-UA in die Systemwelt für Monitoring und Optimierungsaufgaben exportiert“, beschreibt der Automatisierungsspezialist Christian Klettner, BASF, für den Namur-Arbeitskreis 2.8 die Aufgabenteilung. Wo erforderlich, werden zusätzliche Sensorsignale durch einen zweiten Kommunikationskanal direkt an den bestehenden Feldgeräten abgeholt. „Zusätzliche Sensoren im Bereich Monitoring und Optimierung können durch NOA einfach in die offene Systemwelt integriert werden“, so Klettner: „Bei der Realisierung von Monitoring- und Optimierungsfunktionen müssen wir künftig nicht mehr mit der Strenge der Kernautomation messen und öffnen uns so für Automatisierungstechnik, bei der nicht die sonst hohen Verfügbarkeitsanforderungen bestehen.“
Geeignete Methoden und entsprechende Security-Maßnahmen sollen künftig sicherstellen, dass die Funktionen aus dem Monitoring- und Optimierungsbereich die Kern-Automatisierung nicht beeinträchtigen. Wollen diese die Kern-Automatisierung z.B. durch eine Befehlsanforderung beeinflussen, muss diese Anforderung durch eine neue Funktion „Verification of Request“ geprüft und freigegeben werden. Diese Prüfung kann durch erlaubte Wertebereiche, Plausibilitätschecks oder auch durch einen Dialog mit dem Operator erfolgen. „Die Pyramide wird in NOA offen nach draußen und sicher nach innen“, konkretisiert Tauchnitz.
Konkrete Lösungen in weniger als einem Jahr realisiert
Wie das in der Praxis funktioniert, zeigten auf der Namur-Hauptsitzung gleich vier verschiedene Universitäten mit eigens entwickelten Demonstratoren. Prof. Dr. Christian Diedrich vom ifak – Institut für Automation und Kommunikation in Magdeburg zeigte einen Aufbau, bei dem Feldgeräte Daten anhand des NOA-Modells für Monitoring- und Optimierungszwecke über einen OPC-UA-Server an eine Monitoring-Anwendung liefern. Prof. Dr. Ulrich Epple von der RWTH Aachen stellte vor, wie die NOA-Strategie für die Integration von Informationen aus Feldgeräten in die Verwaltungsschale einer Industrie 4.0-Komponente funktionieren kann. Dazu wurde der Messumformer eines Coriolis-Durchflussmessgeräts von Krohne mit einem Ergänzungsmodul ausgerüstet, das – mit einem OPC-UA-Server ausgestattet – Gerätedaten rückwirkungsfrei („Informationsdiode“) und als Wifi-Access-Point drahtlos an die Assetverwaltung übermittelt. Für die leistungsschwächeren 2-Leiter-Geräte schlägt Epple die Nutzung von Bluetooth-Low-Energy-Netzwerken vor.
Ebenfalls elegant ist die von Prof. Dr. Daniel Großmann von der Technischen Hochschule Ingolstadt gezeigte Lösung über einen FDI-Server, der die iDTM-Gerätebeschreibungen moderner Feldgeräte nutzt, und Monitoring- und Optimierungsinformationen aus den Feldgeräten über das NOA-Informationsmodell an Auswertungssysteme außerhalb der Leittechnik übermittelt. Und auch an der TU Dresden sind bereits Pilotanlagen entstanden, bei denen die neue offene Architektur genutzt wird. Dabei werden vier Anwendungsfälle untersucht: Die semantische Integration von Bestandsgeräten, flexibles Einbringen zusätzlicher Sensorik, datenintensive Geräteüberwachung zur Prozessoptimierung sowie ein skalierbarer Zugriff prozessnaher Mehrwertdienste in NOA.
In den nächsten Schritten wollen die Anwender der Namur das Konzept in einer neuen Namur-Empfehlung beschreiben. Außerdem ist die Standardisierung geplant. Bis technische Lösungen kommerziell verfügbar sein werden, sind allerdings noch einige Detailfragen wie zum Beispiel die Ausgestaltung des zweiten Kommunikationskanals zu klären. Aber „dass wir ein Jahr nach der Diskussion über den zweiten Kanal bereits erste Prototypen haben werden, hätte ich nicht geglaubt“, gibt sich Namur-Vorstandschef Otten begeistert.
Fazit: Die Namur steuert mit dem in weniger als einem Jahr realisierten Projekt Namur Open Architecture mit hoher Geschwindigkeit in Richtung Industrie 4.0. Gleichzeitig werden nach der klassischen Automatisierungspyramide aufgebaute Strukturen durch die Trennung zwischen Kern-Automation und Monitoring-Funktionen in die neue Welt hinüber gerettet. So kann NOA der aus Sicherheitsgründen zu Recht konservativen Prozessindustrie den Anschluss an die neuen Technologien und Geschäftsmodelle der Industrie 4.0 sichern.
Die nächste Namur-Hauptsitzung (November 2017) wird unter dem Motto „Mastering the Digital Transformation of the Process Industry“ stehen. Sitzungssponsor wird dann GE Digital sein.