Datengetriebene Optimierung von Prozessen
Hybride Modellierung hilft, die Effizienz von Chemieanlagen zu steigern
Die Erstellung von Modellen existierender Anlagen, welche diese ausreichend genau wiedergeben ist hingegen nach wie vor eine Herausforderung, die aber mit entsprechendem Fachwissen und Projektaufwand realisiert werden kann. Soll jedoch ein Modell kontinuierlich helfen, den effizienten Betrieb einer Anlage zu ermöglichen, ist Fachwissen aus vielerlei Bereichen gefragt. Doch bringen die Digitalisierung sowie die Fortschritte im Bereich des maschinellen Lernens auch neue Chancen für die Optimierung chemischer Prozesse?
Auf den ersten Blick kann es erscheinen, dass die Optimierung chemischer Prozesse ein „gelöstes“ Problem ist. Doch ob das stimmt, hängt nicht zuletzt von der Betrachtungsweise, der geforderten Genauigkeit und vor allem aber dem Optimierungsziel ab. Technisch machbar mit unendlichen Ressourcen ist (fast) alles. Ein stationäres Modell zur Auslegung eines Anlagenkonzeptes ist eine Basis die als Stand der Technik angesehen werden kann. Doch bereits wenn ein solches Modell mit den realen Beobachtungen aus einer Anlage in Einklang gebracht werden soll, kann dies eine Herausforderung darstellen. Sollen Vorhersagen in die Zukunft getroffen und die Dynamik der Anlage erfasst werden, wird der Aufwand höher.
Optimierung kann unterschiedlich umgesetzt werden:
Einerseits auf Basis eines statischen Modells als Debottlenecking eines Prozesses, oft im Rahmen eines einmaligen Projekts. Diese Art der „offline“-Optimierung ist eher Stand der Technik.
Andererseits als eine „online“-Optimierung des laufenden Betriebs, in welche kontinuierlich die aktuellen Daten eingehen. Hier sind dann robuste dynamische Modelle gefragt, die mit der sich ändernden betrieblichen Wirklichkeit klarkommen müssen. Dies erfordert neue Ansätze – und dafür bieten Digitalisierung sowie Industrie 4.0 Chancen.
Kontinuierliche Optimierung des Anlagenbetriebs
Im Fokus liegt zunehmend die kontinuierliche Optimierung des Anlagenbetriebs. Um zum Erfolg zu kommen, gibt es verschiedene Herangehensweisen. Letztendlich geht es immer darum, eine passende Modellstruktur und anschließend passende Parameter zu finden. Die Lehrbuchmethode ist die Flowsheet-Modellierung, wo mittels bekannter Zusammenhänge die gesamte Anlage und alle Unit Operations dargestellt werden. Hier ist das Auffinden von Parametern für Phasengleichgewichte (VLE-Daten) oder den Wärmeübergang oft zeit- und damit kostenintensiv. Selbst wenn alle Parameter gefunden werden können, bleibt eine Lücke zu den Beobachtungen aus der realen Anlage – und so werden einige Parameter an Anlagendaten angepasst.
Für eine gute Beschreibung der Anlage braucht es aktuelle, hochaufgelöste Daten aus der Anlage. Da jedoch eine Produktionsanlage kein unveränderliches Asset ist, geht es nicht nur darum, einmalig unter Aufsicht eine Anpassung durchzuführen, sondern automatisch: Eine erfolgreiche kontinuierliche Optimierung bedeutet, dass die Modelle “operativ” betrieben werden und mit den veränderlichen Bedingungen “mitlernen”.
Folglich bietet es sich an, Modelle operativ zu betreiben: Wie auch der Produktionsprozess selbst, auf Performance und Qualität überwacht. Dieser Prozess wird als „Machine Learning Operations” (MLOps) bezeichnet. Hier können wir in der chemischen Industrie auf die Fortschritte und Erfahrungen aufbauen, die in anderen Industrien etabliert wurden.
Flexibilität und Anpassungsfähigkeit
Doch rein an Daten zu lernen, reicht in der Chemie nicht aus. Aus der Verfahrenstechnik ist schon viel über die Anlagen bekannt und auch weshalb sogenannte hybride Modelle zur Optimierung Vorteile aufweisen. Hierbei handelt es sich, wie es der Name suggeriert um einen Mittelweg zwischen den klassischen First-Principle-Modellen und den ausschließlich datengetriebenen Blackbox-Modellen. Konzeptionell nutzt man als Basis ein datengetriebenes Modell, z.B. ein neuronales Netzwerk, und erweitert dieses mit Blöcken, in welchen die aus der Prozesstechnik bekannten Details abgebildet sind. Es geht darum, die Flexibilität und Anpassungsfähigkeit mit den fundamentalen Zusammenhängen zu kombinieren. Neu ist diese Idee nicht, doch ist eine erfolgreiche Umsetzung erst heutzutage möglich, da nun sowohl der Zugang zu Daten als auch entsprechende Rechnerkapazitäten und passende Software verfügbar sind.
Allerdings benötigen diese Modelle sehr viel Rechenleistung, so dass sich die flexibel und praktisch unbegrenzt verfügbaren Kapazitäten in der Cloud anbieten. Als Folge bedeutet dies, dass die benötigten Daten vom Produktionsstandort in die Cloud kommen müssen – also von dem Bereich der Operational Technology (OT) in die Domäne der Information Technology (IT).
Sicherheit als Grundvoraussetzung
IT-Sicherheit ist, wie auch die betriebliche Sicherheit in der Anlage, eine absolute Grundvoraussetzung. Richtlinien der NAMUR, wie z. B. NE175 und NE177 umreißen sehr gut die Prinzipien, um auf der sicheren Seite zu sein. Es empfiehlt sich die Zusammenarbeit mit spezialisierten Dienstleistern, der Einsatz von kryptographisch gesicherten Verbindungen vom Standort in die Cloud sowie ein “Push”-Prinzip, bei dem kein externer Zugriff möglich ist, sondern nur das “Versenden” von Daten in Richtung Cloud. Dies reduziert das Risiko schadhafter Zugriffe von außen enorm.
Datengetriebene Optimierung von Prozessen mittels hybrider Modelle kann den Betrieben auch im Hinblick auf die stetig wachsende Komplexität der Anlagen und den gleichzeitigen Wissensverlust durch viele in den Ruhestand gehende Anlagenfahrer helfen. Mit dem stärkeren Blick auf Nachhaltigkeit rückt neben den Zielen von gesteigerter Effizienz und Energieeinsparungen auch ein auf den Carbon Footprint optimierter Prozess als zukünftiger Wettbewerbsvorteil in den Fokus.
Autor
Zur Person
Sebastian Werner ist seit seiner Promotion in Chemischer Reaktionstechnik an der Universität Erlangen-Nürnberg 2011 stetig als IT-affiner Chemieingenieur an den Schnittstellen von Simulation, Datenverarbeitung, Katalyse und Verfahrenstechnik tätig. Nach einem 32-monatigem Postdoc-Aufenthalt an der University of California, Berkeley, in den USA trat er 2014 bei Clariant ein, wo er zunächst F&E-Rollen in der Geschäftseinheit Catalysts innehatte und sich später mit der Digitalisierungsstrategie befasste. 2017 startete er das Clariant-Technologie-Spin-off Navigance, wo er als Chief Technology Officer und Geschäftsführer tätig ist. Neben seiner Lehrtätigkeit an der Universität Erlangen ist er in der Fachgruppe „Maschinelles Lernen“ der German DataScienceSociety aktiv.