
Zur Digitalisierung von existierenden Anlagen sollen weitgehend Daten dienen, die in den Feldgeräten bereits vorhanden sind. Das erfordert sowohl Hardware- als auch logische Verbindungen. Bilder: Phoenix Contact
- Daten aus Feldgeräten lassen sich nur dann zur Digitalisierung nutzen, wenn sie mit Kontext angereichert werden.
- Neben der Verbindungstechnik geht es deshalb um die semantische Verknüpfung von Daten und Informationen.
- Mit einem dreistufigen Ansatz will Phoenix Contact dazu beitragen, dass die Namur Open Architecture anwendbar wird.
Mehr Effizienz in der Produktion, weniger Energieeinsatz und eine vorausschauende Wartung bei geringerem Engineering-Aufwand: Diese drei Wünsche sind nur einige Beispiele dafür, welchen Nutzen sich die Prozessbetreiber von der Digitalisierung erhoffen. Mit der Namur Open Architecture hat die Interessengemeinschaft Automatisierungstechnik in der Prozessindustrie – kurz „Namur“ – einen Weg skizziert, wie in Zukunft schnelllebige Technik der IT-Welt dazu genutzt werden kann, ohne die leittechnische Struktur einer Anlage zu überfrachten.
Doch wie können Informationen rückwirkungsfrei aus bestehenden Anlagen gewonnen werden? Wie lassen sich vorhandene Feldgeräte dafür verwenden, um beispielsweise Wartungsinformationen zu Geräten oder zusätzliche Aussagen über Prozesszusammenhänge zu erlangen? Der Schlüssel dazu liegt in den Feldgeräten, die in den bestehenden Anlagen bereits verbaut sind. Denn obwohl es schon seit vielen Jahren digitale Bussysteme wie Foundation Fieldbus oder Profibus PA gibt, beherrscht aktuell nach wie vor analoge Technik die Szene. „In 80 % der Anlagen wird auch heute noch das 4…20-mA-Signal genutzt. Die Geräte verfügen in der Regel über Hart-Funktionen, doch diese sind in den Sensoren und Aktoren meist gestrandet und werden nicht verwendet“, berichtet Wilfried Grote, Global Industry Manager Chemicals and Pharmaceuticals bei Phoenix Contact.

"Kontextualisierung durch Geräteinformationen führt zu semantischen Daten, aus denen Spezialisten Anwendungen für die vorausschauende Wartung entwickeln können." Wilfried Grote, Global Industry Manager Chemicals and Pharmaceuticals bei Phoenix Contact
Erschwerend kommt hinzu, dass die einzelnen per Hart-Protokoll verschlüsselten Parameter zum Teil unterschiedlich und auch herstellerspezifisch sind. „Darin stecken sehr interessante Informationen für die Diagnose von Geräten, aber ebenso von Anlagen, die man für eine vorausschauende Wartung einsetzen könnte“, ist Grote überzeugt: „Wir wollen auf der Namur-Hauptsitzung zeigen, dass sich Hart-Daten auslesen lassen und kontextualisiert bereitgestellt werden können.“ Kontext bedeutet in diesem Zusammenhang, dass beispielsweise Informationen der Messstelle, wie die Seriennummer des Gerätes, verknüpft werden mit externen Datenbanken, in denen Informationen abgelegt sind, wie die Hart-Signale eines spezifischen Gerätes zu interpretieren sind. Erst dieses „Mapping“ erlaubt es, Prozess- und Diagnosedaten für weiterführende Auswertungen zu nutzen.
Ranking: Die größten Gefahren für die Sicherheit von Steuerungssystemen

Mangelndes Risikobewusstsein: Wechseldatenträger
An erster Stelle der Bedrohungsliste für Automatisierungssysteme stehen laut BSI Wechseldatenträger und externe Hardware.
Bild: fotomek – AdobeStock

114 Mio. neue Schadprogramm-Varianten hat das BSI im vergangenen Jahr registriert. Bild: Peterschreiber.media Adobe Stock

Menschliche Fehler: Bedienfehler und Unkenntnis
Gedankenlose Handlungen wie Konfigurationsfehler oder der Anschluss von nicht genehmigter Soft- und Hardware stehen an der dritten Stelle der häufigsten Bedrohungen.
Bild: Daniel Ernst – AdobeStock

Cloud-Dienste - Kompromittierte externe Quellen: Externe Quellen wie Cloud-Dienste erfreuen sich wachsender Beliebtheit. Doch auf deren Sicherheit hat der Nutzer keinen Einfluss – sie können ebenfalls zum Sicherheitsrisiko werden. Bild: Alexander Limbach – AdobeStock

Phishing: Gezielter Angriff
Mail-Anhänge sind mit Vorsicht zu genießen. Doch per Social Engineering und Phishing werden Mitarbeiter immer häufiger dazu verleitet, diese trotzdem zu öffnen.
Bild: Andrea Danti – AdobeStock

Bot-Netze und Internet: DDoS-Angriffe
Angreifer können IoT-Komponenten für den Aufbau von Bot-Netzen nutzen. Daraus lassen sich DDoS-Angriffe auf die Kommunikation zwischen Komponenten des Steuerungssystems orchestrieren.
Bild: Klimow,имов Максим - AdobeStock
In der Praxis ist dies bislang auch deshalb nicht möglich, weil die As-Built-Dokumentation in der Regel unvollständig ist, wenn sie nach der Inbetriebnahme einer Anlage nicht lückenlos weitergeführt wird – zum Beispiel dann, wenn defekte Geräte ausgetauscht wurden, die zwar Messwerte liefern, aber nicht exakt den zuvor eingebauten entsprechen. „Es gibt in der Praxis wenig Transparenz über den Anlagenzustand und die Assets. Um den Nutzen der Digitalisierung zu heben, ist die Transparenz der Assets über deren Zustand jedoch unverzichtbar“, ist Grote überzeugt.
Abgleich zwischen Planungswerkzeug und Datenbank mit Gerätebeschreibungen
Der Schlüssel dazu liegt in den Gerätebeschreibungen, die heute entweder als EDD, als FDT-DTM oder FDI-Package zur Verfügung gestellt werden. Den Abgleich zwischen „As Planned“ und „As Built“ stellen sich die Automatisierungsspezialisten aus Blomberg wie folgt vor: Zwischen dem Planungs- bzw. CAE-Werkzeugen und den in der Anlage vorhandenen Geräten findet ein automatischer Abgleich statt. Die per Hart-Kommunikation übermittelte Seriennummer eines Geräts wird über die in einer zentralen Datenbank existierende Gerätebeschreibung mit den Geräteeigenschaften verglichen. Die ebenfalls per Hart-Kommunikation übertragene TAG-Nummer eines Geräts ermöglicht es, die angereicherten Informationen zu einem Gerät der im CAE-Werkzeug hinterlegten Messstelle zuzuordnen.

Mit einer offenen Architektur werden die über ein Prozess-Interface ausgelesenen Felddaten kontextualisiert. Bild: Phoenix Contact
Für die lesende Kommunikation wird einerseits ein Hart-Gateway, andererseits ein Edge Device genutzt. „Wir sehen Enhanced Connectivity als ein System, das aus einer Architektur von drei Schritten besteht: dem Prozess-Interface, über das Daten rückwirkungsfrei ausgelesen werden, der Kontextualisierung, bei der Daten aggregiert und strukturiert bereitgestellt werden, und der Informationsverarbeitungsebene, in der Informationen aufbereitet werden, um sie beispielsweise für die vorausschauende Wartung zu verwenden”, erklärt Wilfried Grote.
Wo die Informationsebene realisiert wird, wird derzeit zum Teil kontrovers diskutiert: Cloud-Lösungen werden von Unternehmen der Großchemie vor dem Hintergrund der IT-Sicherheit und des Know-how-Schutzes kritisch betrachtet. Komplexe Algorithmen sollen daher künftig nicht nur in Cloud-Systemen, sondern auch direkt im Edge- oder Connectivity-Gateway verarbeitet werden. Dazu will der Hersteller sein aktuel-les PLCnext-System nutzen. Applikationen, wie zum Beispiel eine Motor- oder Pumpenüberwachung, werden über einen App-Store zur Verfügung gestellt und können entweder in Cloud-Systeme oder in das Edge-Gateway gelangen und mit niedrigem Engineering-Aufwand verwendet werden.
Diese sechs Trends prägen 2019 die Künstliche Intelligenz

Im Vergleich zur vorangegangenen Erhebung im Jahr 2016 beträgt der Zuwachs 9.200 Ingenieurstellen. Bild: goodluz - adobestock

2. Industrielle Anwendungen erfordern Spezialisierung Industrielle Anwendungsmöglichkeiten werden zu einem wichtigen Einsatzfeld für KI, erfordern aber auch eine größere Spezialisierung. Damit IoT- und KI-getriebene Anwendungen, wie Smart Cities, Predictive Maintenance und Industry 4.0 von visionären Konzepten zur Realität werden, müssen einige Kriterien erfüllt sein. Sicherheitskritische Anwendungen verlangen beispielsweise nach einer höheren Verlässlichkeit und Verifizierbarkeit. Wohingegen fortschrittliche mechatronische System Designansätze benötigen, die mechanische, elektrische und andere Komponenten integrieren. Eine weitere Herausforderung ist, dass diese spezialisierten Anwendungen wie zum Beispiel Systeme zur Erkennung von Überhitzung bei Flugzeugtriebwerken oft von dezentralen Entwicklungs- und Serviceteams entwickelt und verwaltet werden. Sie sind somit nicht unter der IT zentralisiert. Bild: Aquarius über Adobe Stock

3. Interoperabilität : Für den Aufbau einer umfassenden KI-Lösung ist die Zusammenarbeit von verschiedenen Systemen, Programmen oder Plattformen essentiell. Die Realität ist, dass es kein einzelnes Framework gibt, das die besten Lösungen für alle Anwendungsbereiche der KI bieten kann. Derzeit konzentriert sich jedes Deep Learning Framework auf einige wenige Anwendungen und Produktionsplattformen, während effektive Lösungen Teile aus mehreren verschiedenen Workflows zusammenführen müssen. Dies erzeugt Reibung und reduziert die Produktivität. Diesem Problem nehmen sich Unternehmen wie ONNX.ai an. Sie bieten eine Umgebung, in der Entwickler, das beste Werkzeug frei wählen, ihre Modelle einfacher teilen und ihre Lösungen auf einer breiten Palette von Produktionsplattformen einsetzen können. Bild: BillionPhotos.com über Adobe Stock

4. Cloud Computing: Gerade Public-Clouds werden zunehmend als Host-Plattform für KI genutzt. Sie werden sich weiterentwickeln, um die Komplexität zu reduzieren und werden die Abhängigkeit von IT-Abteilungen verringern. Leistungsstarke GPU-Instanzen, flexible Speicheroptionen und produktionsreife Containertechnologien sind nur drei Gründe, warum KI-Anwendungen zunehmend Cloud-basiert sind. Für Ingenieure und Wissenschaftler erleichtert die Cloud-basierte Entwicklung die Zusammenarbeit und ermöglicht die bedarfsgerechte Nutzung von Computerressourcen, anstatt teure Hardware mit begrenzter Lebensdauer zu kaufen. Cloud-, Hard- und Softwareanbieter erkennen jedoch, dass diese Technologieplattformen für Ingenieure und Wissenschaftler oft schwierig einzurichten und in ihren Entwicklungsabläufen zu nutzen ist. Bild: Gorondenkoff über Adobe Stock

5. Edge-Computing: Edge-Computing wird KI-Anwendungen in Szenarien ermöglichen, in denen die Verarbeitung lokal erfolgen muss. Edge-Computing für leistungsstarke, immer komplexere KI-Lösungen in Echtzeit wird durch die Fortschritte bei Sensoren und energiesparenden Computerarchitekturen möglich gemacht. Gerade für die Sicherheit in autonomen Fahrzeugen, die ihre Umgebung verstehen und davon ausgehend Verkehrssituationen in Echtzeit bewerten müssen, wird Edge-Computing von entscheidender Bedeutung sein. Bild: wladimir1804 über Adobe Stock

6. Komplexität erfordert eine stärkere Zusammenarbeit : Der zunehmende Einsatz von Machine- und Deep-Learning in komplexen Systemen wird viel mehr Mitarbeiter und eine stärkere Zusammenarbeit erfordern. Datenerhebung, -synthese und -kennzeichnung erhöhen den Umfang und die Komplexität von Deep-Learning-Projekten und erfordern größere, dezentralisierte Teams. System- und Embedded-Ingenieure benötigen Flexibilität bei der Bereitstellung von Inferenzmodellen in Rechenzentren, Cloud-Plattformen und Embedded-Architekturen wie FPGAs, ASICs und Mikrocontrollern. Zusätzlich müssen sie über Fachwissen in den Bereichen Optimierung, Energiemanagement und Wiederverwendung von Komponenten verfügen. Ingenieure, die Inferenzmodelle entwickeln, müssen diese Informationen zusammenführen. Sie benötigen Werkzeuge, um die ständig wachsende Menge an Trainingsdaten zu bewerten und zu verwalten sowie für das Lifecycle-Management der Inferenzmodelle, die sie an Systemingenieure weitergeben. Bild: ristaumedia über Adobe Stock

Mehr zum Thema erfahren Sie unter all-electronics.de
Neu an diesem Ansatz ist nicht nur, dass Informationen aus der Feldebene zugänglich werden, ohne die leittechnische Struktur zu belasten, sondern ebenfalls die Verknüpfung mit externen Datenbanken und die Möglichkeit, diese Informationen beispielsweise in Cloud-Applikationen zu nutzen. Zudem erlaubt der NOA-Ansatz offene Prozessschnittstellen, die nicht mehr herstellerspezifisch sind. Das Datenmodell für NOA, „PA DIM“ genannt, wird von den Anwendern selbst gemeinsam mit den Herstellern erarbeitet und basiert auf dem existierenden Profil Profibus PA 3.0.
Tiefere Einblicke in den Zustand der Anlage mit weniger Aufwand gewinnen

Das Enhanced Connectivity System besteht aus den drei Ebenen Prozess-Interface, Kontextualisierung der Daten und der Informationsverarbeitungsebene. Bild: Phoenix Contact
Eingesetzt werden soll die neue Konnektivität beispielsweise für die Überwachung von Motoren und Pumpen (Rotating Equipment): Längst verwenden beispielsweise Insellösungen zur Überwachung von Pumpen und Kompressoren Informationen wie die Stromaufnahme, die Wirkleistung und Phasenverschiebung, um Aussagen über den Zustand der Maschine zu gewinnen. Dies könnte zwar theoretisch ebenso mit Leitsystemen oder Wartungskonsolen umgesetzt werden, doch die Integration in die Leittechnik sowie die Installation zusätzlicher Sensoren scheitert oft an dem dafür entstehenden Aufwand: Neben den Anforderungen an die Hardware geht es auch um die Einbindung in das Leitsystem und die notwendige Dokumentation. „Die Namur Open Architecture ermöglicht es uns, diesen Aufwand deutlich zu reduzieren“, ist Grote überzeugt und sieht darin ebenfalls eine Option, mit weiteren Low-Cost-Sensoren tiefere Einblicke in den Zustand von Maschinen und Anlagen zu erhalten.
Die neue Offenheit erlaubt es dem Verbindungstechnik-Spezialisten aus Blomberg eigene Monitoring-Lösungen für unterschiedliche Anwendungsfälle zu entwickeln. „Wir verstehen uns nicht als künftige Systemintegratoren für Großanlagen, sondern wollen verschiedene Applikationen und Lösungen gemeinsam mit den Anwendern erarbeiten, die den Betrieb von Prozessanlagen erleichtern helfen“, so Grote. Die Apps sind dabei nicht nur neue Software-Funktionen, sondern sollen gleichzeitig dabei unterstützen, die Komplexität der erweiterten Konnektivität zu kapseln.
Der Anbieter arbeitet derzeit an drei Pilotprojekten, in denen NOA und der „Enhanced Connectivity“ genannte Ecosystem-Ansatz Realität werden sollen: In einer Testanlage der IGR bei Bilfinger im Industriepark Höchst wird der Einsatz einer generischen Hart-Diode untersucht: Hart-Diagnosedaten aus dem Feld werden NOA-konform ausgelesen und per Edge-Computing aggregiert. Dabei wird auch die Verwendung weiterer Apps für Cloud-Lösungen ergründet. In einem anderen Pilotprojekt wird analysiert, wie die Nutzung des MTP-Konzepts sowie der erweiterten Konnektivität helfen kann, den Engineering-Aufwand zu reduzieren. Und schließlich geht es in einem Pilotprojekt bei der BASF um die Umsetzung der Open Process Automation, OPAF – einem von Exxonmobil initiierten Ansatz, bei dem Prozessautomation in Zukunft auf komplett offenen Standards basieren soll und proprietäre Leittechnik vermieden wird.

So lassen sich Hart-Daten rückwirkungsfrei sowie NOA-konform für Monitoring- und Optimierungszwecke ohne Programmieraufwand nutzbar machen. Bilder: Phoenix Contact
Für das Enhanced Connectivity-Projekt plant der Automatisierungs- und Verbindungstechnikhersteller drei Ausbaustufen. Zunächst wird das Hart-Signal zwischen Feldgerät und Leitsystem abgegriffen. Dazu setzt der Hersteller eine eigene Schneidklemme ein, mit der die 4…20-mA-Leitung „angezapft“ wird, ohne die Verfügbarkeit des Feldgeräts zu beeinträchtigen. In der ersten Ausbaustufe wird ein Hart-IP-Gateway verwendet, um Diagnoseinformationen auszulesen und in Cloud-Applikationen zu nutzen. In der zweiten Ausbaustufe wird dem Hart-IP-Gateway das Edge-Gateway nachgeschaltet, das Daten aggregiert und in das Apps geladen werden können. Das Edge-Gerät übermittelt zudem Informationen via OPC UA in die Cloud oder an ein bestehendes Monitoring- und Überwachungssystem. In der dritten Ausbaustufe wird ein IIOT-Server von Codewrightseingesetzt, um den Abgleich der „As Built“- mit den „As Planned“-Informationen zu bewerkstelligen.
„Durch Enhanced Connectivity wird NOA anwendbar und können Daten aus dem Feld einfach für die Prozessoptimierung und vorausschauende Wartung verwendet werden“, resümiert Wilfried Grote „Das Enhanced Connectivity-System sammelt Daten ein, bringt diese in einen Kontext und stellt sie auf der Informationsebene bereit. Dort können dann weitere Analysen sowie komplexere Algorithmen – auch durch Drittanbieter – ausgewertet werden.“
Neue Anlagenprojekte im August 2020

Das US-Unternehmen Cummins baut im US-Bundesstaat Washington eine Anlage zur Wasserstoffelektrolyse. Mit 5 MW Leistung sei der Elektrolyseur die größte Anlage ihrer Art in den USA.
Mehr zum Projekt
Bild: Cummins

Evonik investiert rund 15 Mio. Euro in seinen C4-Produktionsverbund in Marl. Durch gezielte Debottlenecking-Maßnahmen soll sich die dortige Produktionskapazität für sogenannte Isobutenderivate bis Ende 2021 um deutlich über 50 % erhöhen. Bild: Evonik Mehr zum Projekt

Für den Chemiekonzern Dow hat Eon im niederländischen Terneuzen einen Prozessdampferzeuger gebaut und jetzt in Betrieb genommen. Das Energieunternehmen hat rund 30 Mio. Euro in das Projekt investiert und will die Anlage als Eigentümer 15 Jahre betreiben. Bild: Dow Mehr zum Projekt

Der Energiekonzern Phillips 66 plant seine Raffinerie in San Francisco auf erneuerbare Kraftstoffe umzustellen. Mit einer Produktionskapazität von etwa 7 Mio. l/d entstünde so nach Angaben des Unternehmens die weltweit größte Anlage ihrer Art. Bild: Phillips 66 Mehr zum Projekt

BASF investiert in eine neue Produktionslinie für Uvinul-A-Plus in Kaohsiung in Taiwan. Der Chemiekonzern verdoppelt damit seine weltweite Kapazität für diesen UV-Filter, der bisher nur in Ludwigshafen hergestellt wird. Bild: BASF Mehr zum Projekt

Nouryon baut eine neue Produktionsanlage für expandierbare Mikrokügelchen der Marke Expancel. Als Standort hat der Spezialchemie-Konzern Green Bay im US-Bundesstaat Wisconsin ausgewählt. Bild: Nouryon Mehr zum Projekt

Der Spezialchemiekonzern Nouryon plant, seine Produktion von Monochloressigsäure (MCA) in Delfzijl, Niederlande, bis Ende 2020 zu erweitern. Die Gesamtkapazität des Unternehmens für den wichtigen Rohstoff soll damit um über 20 Prozent steigen. Bild: Nouryon Mehr zum Projekt
Kostenlose Registrierung
Der Eintrag "freemium_overlay_form_cte" existiert leider nicht.
Sie sind bereits registriert?
Hier anmelden
Diskutieren Sie mit