Was ist das eigentlich ‚die künstliche Intelligenz‘? Das Thema polarisiert, oft verängstigt und verstört es. Nicht zuletzt, weil Hollywoods Filmmaschinerie unsere Idee von künstlicher Intelligenz seit Jahrzehnten weit mehr prägt, als es wissenschaftlich fundierte Aussagen je könnten. Bleiben wir also bei den Fakten: KI ist ein Überbegriff für die Art und Weise, wie Computer mit Daten umgehen, wie sie Daten analysieren, interpretieren, daraus lernen und das Gelernte schließlich nutzen, um bestimmte Ziele durch flexible Anpassung zu erreichen. Je detaillierter wir den Blick auf das Thema richten, desto unschärfer werden die Grenzen zwischen einzelnen Verfahren, Methoden und Vorgehensweisen. Mitunter handelt es sich bei einzelnen Disziplinen um Teilmengen von anderen. Grundsätzlich wird aber zwischen starker und schwacher KI unterschieden. Vieles von dem, was Hollywood uns glauben lassen will, beruht auf starker KI, denn das Ziel einer starken künstlichen Intelligenz (auch Superintelligenz genannt) ist es, die gleichen intellektuellen Fertigkeiten von Menschen zu erlangen oder zu übertreffen. Was wir heute schon umsetzen können, beruht hingegen auf schwacher KI, die statistisch vorgeht, Daten sammelt und daraus Erkenntnisse gewinnt. Dabei geht es nicht darum, Menschen zu ersetzen, sondern sie zu unterstützen – zum Beispiel bei der Verarbeitung unvorstellbar großer Datenmengen für Text- oder Bilderkennung.
Die Überwachung von Pumpen in industriellen Prozessen ist weit mehr als eine reine Schutzmaßnahme für das Pumpenaggregat. Neben der präventiven Wartung und...
Immer dann, wenn große Datenmengen in eine überschaubare Anzahl von erlaubten Ergebnissen überführt werden, helfen künstliche neuronale Netze (KNN). Bei ihnen handelt es sich um eine Klasse lernender Algorithmen, deren Struktur vom menschlichen Gehirn inspiriert ist und die sich durch einen Eingang, Ausgang und mehrere Zwischenschichten auszeichnet. Technisch betrachtet werden Schichten von künstlichen Neuronen miteinander kombiniert, sodass bei hinreichender Größe des Netzes auch komplexe Zusammenhänge modelliert werden können. Sprechen wir dagegen von künstlicher Intelligenz, so ist heute meistens das sogenannte maschinelle Lernen (ML – Machine Learning) – und somit eher ‚prognostische Kompetenz‘ – gemeint. ML ist der Oberbegriff für die Generierung von Wissen aus Erfahrung: Selbstlernende Maschinen können z. B. Fehlermuster in der industriellen Fertigung erkennen oder Schäden prognostizieren. Anders als Algorithmen, die rein regelbasiert arbeiten, leitet ML aus strukturierten Trainingsdaten Wahrscheinlichkeiten ab. So können auch Aufgaben gelöst werden, deren Regeln nur schwer oder gar nicht beschrieben werden können. Ein ML-System lernt aus Hunderttausenden von Beispielen und kann diese nach einer Lernphase zu einem statistischen Modell verallgemeinern. Deep Learning (DL) ist wiederum der Teilbereich von ML, der sich mit dem Lernen komplexer Zusammenhänge mittels tiefer neuronaler Netze beschäftigt. Als tiefes neuronales Netz wird ein Netz mit vielen Schichten bezeichnet, wobei keine allgemeingültige Definition existiert, ab welcher Anzahl von ‚vielen‘ Schichten gesprochen werden kann. Ein klassisches Beispiel für eine DL-Anwendung ist die maschinelle Gesichtserkennung.
KI-Anwendungen in der Prozessindustrie
Künstliche neuronale Netze sind schon seit Jahrzehnten in der Prozessindustrie, beispielsweise der chemischen Industrie, der Stahl- oder der Wasser- und Abwasserbranche, bekannt. Vor allem bei prädiktiver Regelung und Modellbildung kommen KNN zum Einsatz, um herkömmliche Regler zu ersetzen oder ihnen Sollwerte vorzugeben, die das neuronale Netz aus einer selbst entwickelten Prognose über den Prozessverlauf ermittelt hat. Auch Fuzzy-Systeme lassen sich durch eine bidirektionale Umwandlung in neuronale Netze lernbar gestalten. Durch ihre Flexibilität können KNN für eine Vielzahl unterschiedlicher Anwendungen eingesetzt werden. So leisten sie hervorragende Dienste bei der Bilderkennung, der Zeitreihenanalyse oder der Fehlererkennung.
ML-Methoden zeichnen sich dadurch aus, dass sie Computer befähigen, aus Daten zu lernen, ohne dass explizit programmiert werden muss. Computer werden trainiert, anhand von Algorithmen in unstrukturierten Datensätzen Muster zu erkennen und aufgrund dieses ‚Wissens‘ Entscheidungen selbst zu treffen. In der verfahrenstechnischen Industrie wird ML unter anderem bei der automatisierten und selbstständigen Anomalie-Erkennung im Asset Management eine immer wichtigere Rolle spielen.
Wenn es um das Aufspüren von Korrelationen zwischen Daten und daraus ableitbaren Prognosen geht, ist Deep Learning ein äußerst flexibles und anpassungsfähiges Instrument. DL ermöglicht es, dass Algorithmen ihre Fähigkeit, Muster und Beziehungen zwischen den Daten zu identifizieren und zu klassifizieren, selbst steigern. Sogar unbekannte Datenarten können so maschinell berücksichtigt werden, ohne dass diese manuell eingelernt werden müssen. Dadurch steigt sowohl die Datenmenge, mit der das DL-basierte Prognosemodell versorgt wird, als auch die Zuverlässigkeit der Voraussagen. Das qualifiziert solche Systeme für gehobenes Asset Management mit prädiktiven Wartungskonzepten ebenso wie maschinell durchgeführtes Qualitätsmanagement.
Exemplarische Evolution von KI-Methoden
Im Siemens-Konzern ist das Thema KI systemrelevant, das gilt nicht nur für die Medizintechniktochter Healthineers oder für die neu entstandene Siemens Energy: Bereits in den 1990er-Jahren wurden in Stahlwerken neuronale Netze für die Prozessoptimierung implementiert. Für die Entwicklung und Verifizierung von KI-Methoden stehen eigene verfahrenstechnische Versuchsanlagen zur Verfügung. Die Entwicklung von KI-gestützten Methoden beginnt typischerweise mit der Identifizierung realer Anforderungen von Kunden und mit synthetischen und simulierten Daten. Typische Verfahrenstechnik-Forschungsschwerpunkte bei Siemens sind z. B. die Steigerung der Anlagenverfügbarkeit, die verbesserte Planbarkeit von Wartungsarbeiten oder die Optimierung der Gesamtanlageneffektivität. Passende KI-Methoden werden im nächsten Schritt in der Forschungsanlage getestet. Hier herrschen gut reproduzierbare und trotzdem reale Bedingungen. Die Ergebnisse helfen, die Methoden zu verbessern, weiterzuentwickeln und neue Aspekte zu erkennen. Erst wenn validierte Ergebnisse vorliegen, beginnt die Kontaktaufnahme mit möglichen Pilotkunden, um die Methoden im realen Umfeld prozesstechnischer Anlagen zu erproben.
Besonderes Augenmerk legt man bei Siemens auf Optimierungsverfahren, um Produktionsprozesse zu verbessern: Algorithmen werden genutzt, um das Systemverhalten zu identifizieren und Abhängigkeiten zu erkennen. Abhängig von der Komplexität des Prozesses reicht dies von einfachen Kennfeldern bis hin zu State-of-the-Art-DL-Methoden. Zusätzlich werden die KI-Methoden mit mechanistischen Modellen kombiniert, um das Potenzial des digital vorliegenden Prozesswissens voll ausschöpfen zu können. Solche Verfahren werden schon jetzt in Applikationen und digitalen Services für die Prozessindustrie gewinnbringend eingesetzt und unterstützen damit Modulbauer und Anlagenbetreiber dabei, ihre verfahrenstechnischen Anlagen zuverlässiger, effizienter und robuster zu fahren.
Zukunftspotenzial und Herausforderungen
Es gibt also nicht die ‚eine‘ künstliche Intelligenz, sondern unterschiedliche Ausprägungen. Dessen ungeachtet eröffnet sie für die Prozessindustrie in jedem Fall ungeahnte Möglichkeiten, über klassische hardcodierte Ansätze hinaus zu adaptiven Selbstlernlösungen, die auf großen Datenmengen und maschinellen Lernalgorithmen beruhen. Das bringt mit sich, dass in Zukunft Operational Technology (OT), also der Produktionsbereich, und die Information Technology (IT), also der Office-Bereich, noch enger zusammenrücken. Verfahrens- und Produktionsingenieure ebenso wie Dateningenieure und Informatiker müssen ihr jeweiliges Fachwissen zusammenführen, um optimale KI-Methoden zu entwickeln, die zudem höchsten IT-Security-Ansprüchen gerecht werden. Auf Themen wie Datenbanken, Datenarchitektur, Modellierung, Statistik, Datenspeicherung und -protokollierung werden wir in Zukunft ebenso viel wertlegen müssen wie auf Datenqualität (VDI/VDE Richtlinienreihe 3714 „Einsatz von Big Data in produzierenden Industrien“), den Zugang zu (historischen) Daten, die Analyse und Kontextualisierung von Daten.
Es ist noch ein weiter Weg
Trotz jahrzehntelanger Forschung – die akademischen Anfänge reichen in die 1960er-Jahre zurück – haben wir in puncto künstlicher Intelligenz nicht nur im Bereich der Prozessindustrie noch einen weiten Weg vor uns. Die Vorteile von KI sind heute bereits mess-, die Veränderungen sichtbar. Und wenn die dystopischen Hollywood-Szenarien für etwas anderes als nur wohlige Gänsehaut gut sein sollen, dann vielleicht dafür, dass sie uns daran erinnern, dass die Einführung neuer Technologien nicht nur wirtschaftlichen Erfolg, sondern auch verantwortungsvolles Handeln mit sich bringen sollte.
Siemens AG, Nürnberg
Autoren:
Thomas Bierweiler
Senior Key Expert,
DI PA, Siemens
Dr. Daniel Labisch
Projektleiter,
DI PA, Siemens
Dr. Konrad Griessinger
Data Scientist,
DI PA, Siemens
Künstliche Intelligenz: Drei Beispiele
Die Asset Performance Suite ist eine Anlagen-Asset-Management-Lösung, die die vorausschauende Wartung unterstützt und eine Möglichkeit bietet, mithilfe künstlicher Intelligenz eine höhere Zuverlässigkeit und Performance von Anlagen-Assets zu erreichen. Sie unterstützt Anlagenbetreiber und -besitzer in der Prozessindustrie dabei, die höchstmögliche betriebliche Effizienz aus ihren Anlagen herauszuholen.
Mit der Software Siemens Predictive Analytics (SiePA) lassen sich Anlagenprobleme frühzeitig erkennen und Stillstandzeiten vermeiden. Ein KI-Modell lernt hierbei das Normalverhalten der Anlage zunächst mithilfe historischer Daten und erkennt in der Folge Anomalien im laufenden Betrieb. Auf der Basis der gefundenen Anomalien können dann durch eine Root-Cause-Analyse Ursachen erkannt und Handlungsempfehlungen abgeleitet werden.
Für einzelne Prozessindustriebranchen gibt es Software-Suiten, die branchenspezifische Applikationen, Softwaremodule und digitale Services vereinen. So beinhaltet beispielsweise die Chemical Suite diverse Module für die Analyse von Daten in chemischen Anlagen. Sie ermöglicht maschinell unterstütztes Überwachen von Ventilen, Pumpen oder Wärmetauschern und bietet vielfältige Instrumente zur Prozessoptimierung. Der Erfolg datengetriebener KI-Modelle liegt hier in der geeigneten Kombination von Fachwissen über Funktionsweise, Struktur sowie Instrumentierung der Anlage und ihrer Komponenten.