Weitere spannende Entwicklungen sind die kapazitive Impedanztomographie, mit der es beispielsweise möglich ist, einen Kristallisationsprozess zu verfolgen. Bereits einsatzreif ist ein Mehrphasen-Durchflussmessgerät, das per Kernspin-Resonanzmessung dazu in der Lage ist, Durchflüsse Substanz-spezifisch zu messen. In der Ölindustrie kann das Gerät dazu eingesetzt werden, um den Öl-, Wasser- und Gasgehalt bei der Ölförderung zu bestimmen.
Doch einen Haken hat die zukünftige (Analysen-)Sensorik: Sie kann enorme Datenmengen erzeugen. „Um diese zu beherrschen, sind kontextsensitive Sichtweisen notwendig“, erklärt Bilgic. Während der Anlagenfahrer weiterhin auf die klassischen Prozessgrößen und einfache Analysedaten über das 4…20 mA- und Feldbusnetz zurückgreifen wird, werden beispielsweise chemische Analysedaten und tomographische Daten vom Prozessoptimierer genutzt werden. Der Asset Manager wird dagegen auf die Diagnosedaten der Geräte und Anlagen zurückgreifen und daraus seine vorausschauende Instandhaltungsstrategie entwickeln.
Daten wie Strom aus der Steckdose
Die großen Datenmengen für Optimierer und Asset Manager müssen über einen breitbandigen zweiten Kommunikationskanal – beispielsweise per W-Lan oder Ethernet übertragen werden. Dass Diagnosedaten bislang nicht genutzt werden, obwohl die Technik dazu in den Feldgeräten sowie via Prozess-Feldbus bereits vorhanden ist, erläuterte Tobias Schlichtmann von der BASF: „Die Gerätehersteller haben ihre Hausaufgaben gemacht und die Empfehlungen der NE107 implementiert,“ erklärt Schlichtmann, „doch die Prozessleitsysteme verstehen das in der Regel nicht.“
Bislang, so Schlichtmann, wird in der Instandhaltung meist immer noch ein reaktiver Ansatz verfolgt. Zu den Gründen dafür gehört, dass Instandhaltung bislang häufig vom Betriebsingenieur delegiert wird, ein „Kümmerer“ für Prozess-Asset-Management fehlt. Dazu kommt, dass Condition Management selten bei der Erstellung einer Instandhaltungsstrategie berücksichtigt wird. „Der Instandhalter versteht sich bislang nicht als proaktiver Optimierer der Equipment-Zuverlässigkeit.“
Dazu kommt, dass zwischen Diagnoseinformationen aus dem Feld und den Systemen der Instandhaltung häufig Informationsbrüche bestehen. „Um Ungeplantes planbar zu machen, wollen wir die Methoden der Big Data Analytics nutzen. Dafür brauchen wir Daten – und diese müssen wie Strom aus der Steckdose zur Verfügung stehen“, stellt Schlichtmann fest und fordert ebenfalls einen Parallelkanal zur Übertragung von Diagnosedaten der einfach konfigurierbar, flexibel und kostengünstig ist. „Wenn wir die Chancen der Industrie 4.0 agil nutzen möchten, müssen wir uns der Frage stellen, ob die Prozessautomatisierung nicht Open Source-Software nutzen sollte“, stellte Schlichtmann zur Diskussion.
Fazit: Die Diskussionen zeigen, dass über das Leitbild „Industrie 4.0″ in der Prozessautomatisierung einiges in Bewegung geraten ist. Der smarte Sensor wird künftig nicht nur zusätzliche Informationen zum Messwert und Gerätezustand liefern, sondern im Netzwerk komplette Dienste, wie beispielsweise eine Dosieraufgabe, übernehmen. Die bisherige Arbeitsteilung zwischen Anwendern, Geräteherstellern und vor allem im Hinblick auf Automatisierungs-Systemanbieter wird dabei zum Teil in Frage gestellt – für Sensorhersteller entstehen dabei neue Geschäftsmodelle.
Namur-Vorstand Dr. Thomas Steckenreiter äußerte sich im CT-Interview zur Zukunft der Prozessanalysentechnik.