100 % Digital in der Prozessindustrie - Tutzing-Symposion Teil 3
Intelligente Nutzung von Daten und Bausteinen der Digitalisierung
Welche Anforderungen und Auswirkungen hat die Digitalisierung für die Prozessindustrie. Ein Workshop beim Tutzing-Symposion befasste sich mit Datenkonzepten, Datenanalyse, Big Data und künstlicher Intelligenz.
Es geht nicht um die Digitalisierung von heute. Im Angesicht der wachsenden Digitalisierung unserer Prozesse stellt sich die Frage, ob wir den Prozess wirklich gut kennen. Ob alle Verfahrensschritte detailliert hinterlegt wurden. Nur mit einem heuristischen Ansatz kann das vorhandene Wissen nicht digitalisiert werden.
Sehr schnell werden die Mechanismen eines Massenmarktes mit denen einer Nische verwechselt. Nicht jeder Mechanismus, den wir von großen Suchmaschinen oder Einkaufsportalen kennen, gibt uns einen Hinweis auf Nutzen und Verfügbarkeit für die Prozess- oder pharmazeutische Industrie. Eine gute Analyse der Anforderungen in der Zukunft mit einem Abgleich der derzeitigen technischen Möglichkeiten ist Voraussetzung für eine Verbesserung der derzeitigen digitalen Umsetzung. Dabei ist es sinnvoll unkonventionelle Methoden einzusetzen.
Keine Angst vor großen Datenmengen
Immer noch gibt es zu wenig verfügbare Daten, um statistische Auswertungen sicher zu betreiben. Der Preisverfall und die Leistungssteigerung der Sensoren, Speicher und Prozessoren werden immer noch unterschätzt. Grundsätzlich darf es keinen Prozess mehr ohne gute Datensammlung, einschließlich der Metadaten geben. Häufig geben die Metadaten die entscheidenden Hinweise auf die Interpretation der Hauptdaten. Beispielsweise gibt eine Druckschwankung im Steuerluftsystem einen Hinweis auf die Ursache einer unstetigen Flüssigkeitszufuhr im Prozess.
Weniger Fleiß, mehr Intelligenz
Die von Herstellern unabhängigen Schnittstellen haben die Ingenieure der jüngeren Vergangenheit intensiv beschäftigt. Dabei wurden enorme Anstrengungen unternommen, Daten und Datenbanken in vorgegebene Formate zu überführen. Entweder mussten mit größtem Aufwand die Formate erstellt werden, um diese Schnittstellen zu bedienen, oder der Informationsfluss zwischen den Anwendungen war nicht ausreichend oder präzise.
Formatierungen dürfen zukünftig nicht mehr den Umgang mit der Datenwelt bestimmen, sondern es sollten gute Abfragetechniken etabliert werden. Bei einer sehr großen Datenmenge lassen sich die gefundenen Ergebnisse mittels statistischer Relevanz bewerten. Abfragetechniken sind dann gut, wenn sie die Ergebnisse aus mehreren Quellen mit statistisch belegten Plausibilitätsbetrachtungen koppeln.
Die Kenntnis der Quellen und die unabhängige Datenerfassung ermöglichen das Verdichten der Ergebnisse. Datensammlungen an sich sind von geringem Wert. Um zu verwertbaren Aussagen zu kommen, müssen sie verdichtet werden. Für die Bewertung der Datensammlung ist es wichtig, die Art und die Anzahl der unabhängigen Quellen zu kennen. Jeder einzelne Datenpunkt wird seine Quelle kennen. Nur mit der Kenntnis der Quellen lässt sich eine Validierung ableiten und die notwendige Verdichtung betreiben.
Überlebenswichtig: IP-Schutz
IP Schutz wird mit dem ungehinderten Datentransfer verträglich gemacht. IP-Schutz wird weiterhin überlebenswichtig sein. In der zukünftigen digitalen Welt besteht aber die Notwendigkeit, die Daten kontrolliert auszutauschen. Dies gilt besonders auch über Länder und Firmengrenzen hinweg. Wirkungsvoller Datenaustausch kann nur stattfinden, wenn er spontan und ohne administrative Hürden gelingt. Es wird also keine sequentielle Freigabe von Daten nützlich sein, sondern eine abstrahierte Zusammenstellung.
Der IP-Schutz kann erzeugt werden, indem z. B. die Quellenangaben der einzelnen Daten entfernt werden. Dies bedeutet, dass in der Regel verdichtete Daten an Partner freigegeben werden und die Validität der Daten vom Datengeber gesichert werden.
Austausch von Daten setzt ein intaktes Vertrauensverhältnis voraus
Der Austausch von Daten wird zukünftig im Vorfeld einen hohen vertraglich geregelten Vorlauf erfordern, um dann reibungslos austauschen zu können. Die Interessenlagen zwischen den Partnern müssen eindeutig geklärt sein. Ein intaktes Vertrauensverhältnis ist Voraussetzung für solch eine Zusammenarbeit.
Im Vertrauen auf Partner und Technologie heißt die Frage zum Ablauf nicht mehr „Warum“, sondern „Wie“. Im Allgemeinen ist beim Einsatz von EDV-Programmen – insbesondere bei Apps auf Smartphones – zu beobachten, dass die Funktionsweise nicht mehr hinterfragt wird. Die Einführung vieler solcher kleinen Anwendungen wird dadurch erleichtert. Das setzt ein gesteigertes Vertrauen in die Datenlage, die Funktionsweise und die beschriebenen Gültigkeitsbereiche voraus. Dieses Vertrauen wird, trotz rasanter Zunahmen der Anzahl der Apps, schnell verliehen. Ein digitaler Kompass, der Nützlichkeit und Reichweiten der Apps bewertet, ist eine Konsequenz auf den Wegfall der Frage nach Funktionsweise der Apps und Herkunft der genutzten Daten.
Präsenz im Netz schlägt Mobilität. Der Umstieg auf den Umgang mit den neuen digitalen Möglichkeiten bedingt ein Umdenken bei den strategischen Planungen zur örtlichen Zusammenstellung der Teams. Die Möglichkeit emotionale Metabotschaften auszutauschen ist für eine Netzcommunity von entscheidender Bedeutung. Dies ermöglicht und fördert Vertrauensverhältnisse über Aktivitäten im Netz aufzubauen. Die vorbehaltlose Anwendung unterschiedlichster Apps trägt zusätzlich zu diesem Prozess bei. Die Generation Z ist hierauf besser vorbereitet als Generation Y oder etwa X, die zurzeit die Strategien der Zusammenarbeit bestimmt.
Lösungsansätze für eine intelligente Nutzung von Daten und Bausteinen der Digitalisierung:
Definition offener, sicherer Schnittstellen. Zum einen wird abstrakt auf das Mitwachsen von Datenschutzrichtlinien verwiesen und gefordert, dass sich die IT-Sicherheit ständig mit den Anforderungen der Interessenten (Automatisierer, Geräte- und Softwarehersteller) weiterentwickelt, ohne dieses näher zu definieren. Im NOA-Konzept (Namur Open Architecture) wird den Feldgeräten aus der klassischen, zentralisierten Sicht des Prozessleitsystems eine „Datendiode“ verordnet. Beide Sichtweisen tragen nicht konstruktiv zur Digitalisierung der Prozessindustrie bei.
Ein erster Schritt muss daher die Definition der Semantik der Kommunikation sein. Die Sortierung von Daten muss sauber und nach offenen Standards definiert werden. Sie kann z. B. erfolgen wie im RAMI-Modell (Informationsebenen). Daten könnten sortiert werden nach Messdaten, Firmware-Daten, Modellen, Verbrauchsdaten, Kontextinformationen, Betriebsdauer, Kalibrierung, etc.
Was die Definition der sicheren Datenübertragung angeht, müssen als nächstes Anforderungen und Geschäftsmodelle aufgezeigt werden, denn ohne diese lässt sich keine sichere Architektur gestalten. Wird tatsächlich an adaptive, sich selbst-konfigurierende, selbst-organisierende, flexible Produktionsanlagen mit hohem Vernetzungsgrad und hochverfügbaren Informationsdiensten gedacht, sollte jede Automatisierungskomponente über eine bidirektionale Schnittstelle verfügen. Im ersten Schritt könnte dieses als „demilitarisierte Zone“ realisiert werden, die bereits aus der Netzwerkwelt bekannt ist. Die Einhaltung der Sortierung der Informationen nach den oben genannten Informationsebenen übernimmt etwa ein Trust-Center.
Basis für die „Rück-Demokratisierung“ des Internets
Zukünftig könnten Blockchain-Technologien solch eine sichere Kommunikation auch unmittelbarer, d. h. ohne Trust-Center und Dienstleister erfüllen. Wer es aufmerksam beobachtet, erkennt in diesen Technologien derzeit die Basis für die „Rück-Demokratisierung“ des Internets, da sie die Dienstleister-Giganten überflüssig machen, die von unseren Daten leben.
Es entstehen neue Berufsbilder zur Analyse, Aufbereitung oder zum sicheren Transfer von Daten. Schon bei der Gestaltung dieses Beitrags wird die enorme Interdisziplinarität der Digitalisierung deutlich. Wer hier mitreden will, muss sich zwangsläufig darauf einlassen, nicht alles auf allen Ebenen bis in die Tiefe selbst beurteilen zu können und muss dennoch mitreden oder mit den Richtigen reden können. Dieses bedeutet lebenslange, interdisziplinäre Aneignung der Basisfähigkeiten rund um die Digitalisierung und Kommunikationsfähigkeiten zwischen diesen Welten.
Mit Vergnügen liest man die sehr unterschiedlichen Anforderungsprofile sogenannter „Data-Scientists“, die zum einen die Grundlagen der Datenanalyse (multivariante Datenanalyse, statistisches Wissen, künstliche Intelligenz) beherrschen, darüber hinaus aber auch die technisch-wissenschaftlichen Grundlagen der Verfahrenstechnik oder Naturwissenschaften, um den Kontextbezug und die Kausalität zwischen Daten und Bedeutung zu erkennen. Von was man mehr braucht, entscheidet dann jeweils der Job. Beide sind schon heute sehr gefragte Spezialisten der Digitalisierung.
Die „autonome Anlage“ als Prototyp – Meilensteine verschiedener Reifegrade von Technologie
In den Workshops zu Datenkonzepten des Tutzing-Symposions, das von der ProcessNet-Fachgemeinschaft Prozess-, Apparate- und Anlagentechnik (PAAT) gestaltet wurde, entstand die „autonome Anlage“ beispielhaft als Prototyp: Als erster Schritt wird die Datenanalyse uns helfen, Abweichungen im Prozess frühzeitig (!) zu erkennen. Im weiteren Reifegrad der Technologie und durch Lernen auf Basis kontextbezogener Informationen wird ein Vorschlagswesen für Prozessänderungen möglich werden. Dieses kann man sich als Assistenzsystem im Rahmen des „Design Space“ (sinnvolle und bekannte Variation der kritischen Betriebsparameter) vorstellen. Nimmt das Wissen auf der Basis von zunehmend verfügbaren Anlagendaten oder etwa durch Soft Sensing (modellgestützte virtuelle Sensoren) stetig zu, ist auch die teilautonome Weiterfahrt von Anlagen(-Modulen) unproblematisch. Sie ließe sich z. B. für Remote-Operation (sichere Fernsteuerung von Anlagen) nutzen. Im letzten Reifegrad kann der Schritt von Remote-Operation zu völlig autonomem Betrieb möglich werden, wobei auf Basis künstlicher Intelligenz mittlerweile auch Algorithmen für das Troubleshooting zur Verfügung stehen.
Drei Thesen für die digitale Zukunft
1. These: Zwischen der Prozessindustrie und ihren Zulieferern wird ein fairer Umgang beim Austausch von Daten und Erfahrungen gefordert. Dieses lässt sich durch offene, standardisierte, herstellerunabhängige Schnittstellen und die Festlegung der Datenebenen und ihrer Semantik erreichen.
In den Workshops zu Datenkonzepten gab es einen bemerkenswerten Schulterschluss zwischen den Beteiligten der Prozessindustrie und den Software- und Geräteherstellern, der in dieser Deutlichkeit vor wenigen Jahren noch nicht denkbar gewesen wäre. Bisher waren jegliche Annäherungen mit dem Blick auf die eigenen, einseitigen Rollenzuweisungen im Rahmen klassischer Spielräume auf der einen Seite (Betriebsleiter, Operator, produzierenden Unternehmen) vor dem Hintergrund ihrer teils persönlichen Verantwortung für den Prozess oder der klaren Abgrenzbarkeit der Verantwortlichkeit für die Funktion der Software oder Geräte auf der anderen Seite sehr schnell zu Ende.
Durch die Digitalisierung kommt eine ganz andere Gesetzmäßigkeit ins Spiel, die die klassischen (physischen) Grenzen nun sprengt und die Rollen und Spielräume auflöst. Wenn wir uns darauf einlassen, gelingt es uns eher, die gemeinsamen Interessen zu finden. Wir brauchen einen großen, konsistenten Datenpool mit allen Prozessdaten, damit nicht – wie heute – 90 % der Daten nutzlos verfallen. Wir wünschen uns auf Basis der Datenanalyse durch Experten eine bessere, sicherere Produktion. Wir möchten keine „kaputt-optimierten“ Wartungspläne, sondern stattdessen Tipps für Wartungsintervalle als Servicedienstleistung.
Der Austausch von Daten und Kontext-Erfahrungen wird gelingen, solange Fairness gewahrt bleibt und nicht nur Dritte von den Daten profitieren. Dazu brauchen wir eine kontinuierliche Abstimmung über die zu übergebenden Daten und das berechtigte Dateninteresse, die über Abstufungen sowie anonymisierte oder abstrahierte (z. B. statistische) Daten gelingen kann. Insbesondere muss der individuelle Know-how-Schutz aller Seiten (Schutz der Produktionsgeheimnisse, Schutz der Gerätefirmware, Schutz von Auswertealgorithmen) streng gewahrt bleiben.
2. These: Die digitale Zukunft kann nur gemeinsam von der Prozessindustrie und ihren Zulieferern gestaltet werden. Durch intelligente Nutzung von Daten können gesellschaftliche und wirtschaftliche Herausforderungen gemeinsam gemeistert werden. Bausteine der Digitalisierung, wie z. B. Big Data und künstliche Intelligenz, erhöhen massiv die gemeinsame Wettbewerbsfähigkeit.
Um einen Wettbewerbsvorteil zu erzielen, muss auch in der Prozessindustrie das Potenzial digitaler Technologien genutzt werden. Digitalisierung ermöglicht dann, bisher getrennte Bereiche miteinander zu vernetzen, zunehmend komplexere Abläufe sicherer handhaben und umsetzen zu können und damit unterschiedliche Produkte schneller auf den Markt zu bringen.
Auf der Basis neuer Datenkonzepte im Schulterschluss der Prozessindustrie mit den Software- und Geräteherstellern müssen zunächst die Voraussetzungen für den sicheren Austausch und das Sammeln von Daten geschaffen werden. Dieses allein ist noch nicht „Big Data“, aber es könnte dazu heranwachsen, wenn die Betriebe zukünftig durch mehr Sensorik durchdrungen werden. Darin liegt dann das große Potenzial umfassender Datenanalysen. Auf Basis von künstlicher Intelligenz (KI) sind schließlich neue Betriebskonzepte der Prozessindustrie denkbar, die eines Tages autonome Anlagen auf Basis von KI- und Sicherheitsfunktionen ermöglichen werden, d. h. Chemieproduktion wird in ihrer Komplexität reduziert und ist leichter und flexibler betreibbar.
3. These: Die Digitalisierung verändert unsere Arbeitswelt und erzeugt neue Aufgaben für alle Qualifikationslevel. Sie bietet Chancen für alle Beteiligten.
Mit dem Einzug der Digitalisierung werden sich gewiss die Rollen aller Beteiligten stark verändern. Digitalisierung bedeutet jedoch nicht zwangsläufig Arbeitsplatzverlust, sondern Veränderung der Arbeitswelt. Viele einfache Aufgaben werden in diesem Zuge fortfallen, andere dafür in ihrer Komplexität vereinfacht, sodass sie von mittel- und wenig qualifizierten Mitarbeiterinnen und Mitarbeitern übernommen werden können. Dieses bedeutet jedoch eine enorme Change-Aktivierung bei vielen betroffenen Menschen – eine der wichtigsten Grundlagen für den Erfolg und die Akzeptanz der Digitalisierung. Die Komplexität und Interdisziplinarität der neuen Technologien erfordert jedoch auch eine Verschiebung der Qualifikationen von heute, die vom neuen Job eines „Data-Scientist“ bis hin zum lebenslangen interdisziplinären Lernen reichen.
Fazit und Ausblick
All das erfordert den Aufbau neuer Fähigkeiten, Investition in Talente und ein Veränderungsmanagement, welches die gesamte Organisation mitnimmt. Die Prozessindustrie steht vor ähnlichen Veränderungen wie auch die Fertigungs-, Metall- und Elektroindustrie. Diese vollziehen sich aber in einem anderen Modus über einen langen Zeitraum und erfordern daher andere Gestaltungsansätze und einen ausgeprägten Forschungs- und Gestaltungsbedarf.
Digitalisierung ist nicht im Alleingang möglich, sie muss gemeinsam mit allen Beteiligten gestaltet werden, wobei die horizontale und vertikale Vernetzung stärker verknüpft werden müssen, etwa in einem gemeinsamen Forschungsprogramm. Forschungsprogramme bieten zudem einen vorwettbewerblichen „Schutzraum“ zum rechtssicheren Voranbringen von Standards, der kartellrechtlich nicht angegriffen werden kann.
Die hohe Dynamik aus dem Tutzing-Symposion wird derzeit in einem temporären Arbeitskreis von ProcessNet weiter vorangebracht. Es wäre klug, diese Aktivitäten zukünftig mit den Aktivitäten der Industrieverbände (z. B. Namur oder ZVEI), der wissenschaftlich-technischen Arbeitskreise (Dechema, VDI, GDCh, …) und politischen Trägern zu verzahnen, um die Digitalisierung der Prozessindustrie konzertiert zu bewältigen.