Startseite » Chemie »

Datenanalyse statt Datenfriedhof

Betriebskosten online optimieren und reduzieren
Datenanalyse statt Datenfriedhof

Die Probleme verfahrenstechnischer Anlagen sind überall ähnlich: Schwankende Produktqualität, Reklamationen, Fehlchargen, zu hohe Kosten und nur Vermutungen über die Ursachen. Nur systematische Arbeit mit und an den Betriebsdaten kann Klarheit über die genauen kausalen Zusammenhänge eines Prozesses geben und damit diese Probleme lösen.

Dipl.-Ing. Thomas Froese

Komplexe Verfahren werden durch eine Vielzahl von Parametern beeinflusst. Diese systematisch zu ordnen und zu untersuchen, inwieweit sie auf die Zielgrößen Einfluss nehmen, kann die ökonomische Situation eines Betriebes deutlich verbessern. Seit Jahren werden daher Methoden diskutiert, die in der Produktion Kosten senken und die Qualität verbessern sollen. Die grundsätzliche Idee in den verschiedenen QS-Systemen wie 6-Sigma-Ansatz, ISO 9000 oder SQC/SPC besteht darin, dass kausale Zusammenhänge im Prozessverlauf analysiert werden, um über die Kenntnis der Ursache-Wirkungsketten gezielt auf beeinflussbare Größen einwirken zu können.
Bei allen Verfahren werden die mutmaßlich ursächlichen Variablen und Zielgrößen erfasst und systematisiert. Manipulierbare Variablen wie Partialdrücke, Zulaufmengen, geregelte Temperaturen und Drücke werden gesondert von den wichtigen Störgrößen vorrangig betrachtet. Nach einfachen tabellarischen oder auch softwaregenerierten Plänen (DoE, Versuchsplanung) werden Versuche bzw. Steptests durchgeführt, in denen alle anderen Größen konstant gehalten und wichtige Größen systematisch variiert werden. Theoretisch könnte man nun folglich erwarten, aus den Ergebnissen der Versuche eindeutige Informationen zu gewinnen, die letztlich zu einer Beherrschung des Prozesses führen können.
Theorie und Praxis
In der Praxis zeigt sich aber, dass diese Ansätze selten funktionieren. Während die Anweisungen dieser Methoden für das Management sicher Erfolge bringen, zeigen die technologisch rudimentären Schemata zur Kontrolle von Prozessen nur selten Wirkung. Schon das zur Auswertung der Versuche notwendige Konstanthalten anderer Größen stellt ein oft unlösbares Problem dar. Die Versuche sind dadurch nicht reproduzierbar und nicht eindeutig. Steptests und Betriebsversuche müssen mehrmals wiederholt werden, oft ohne eindeutige oder konsistente Ergebnisse. Kleine zufällige Schwankungen sensibler Größen während der Tests, sowie der kaum beherrschbare Einfluss von Störgrößen, führen bei der Auswertung zu unüberwindlichen Schwierigkeiten.
Systematische Analyse
Ein weiteres Problem der meisten Betriebe sind die weithin vorhandenen Datenfriedhöfe. Gerade die Tatsache der nur ungenügenden Verfügbarkeit aller Labor- und Betriebsdaten in einer Datenbank verhindert transparente Information der Betriebsverantwortlichen. Viele, auf diversen Rechnern verstreute Excel-Dateien mit Berichten und Laborergebnissen, Betriebsdatenerfassungssysteme mit propietären Datenbanken, PLS-Betriebsdatenbanken ohne Schnittstellen und eine geringe Systematik in der Datenhaltung erschweren die Suche nach den nötigen Daten.
Um diese Situation zu verbessern, ist die Integration und die vollautomatische Aufbereitung aller Daten in einem offenen Datenbank-System notwendig. Hier bieten sich echte PIMS (Prozessinformations- und Management-Systeme) an, die, im Gegensatz zu BDE-Systemen, auch Labordaten integrieren und in einheitlicher Form bereitstellen. Spezialisierte Lösungen unter Oracle sind hier am flexibelsten und am offensten, da sie mannigfaltige Schnittstellen bereitstellen. Liegen die Daten in integrierter Form vor, beginnt jedoch erst die Arbeit der Analyse und Auswertung. Die Daten sollten in eine Form gebracht werden, in der Zusammenhänge überhaupt erst analysiert werden können.
Die wichtigsten Probleme derartiger Rohdaten sind die notwendige kausalrichtige Zuordnung der Daten und die sinnvolle Verdichtung der wichtigsten Kerninformation eines jeden Betriebszustandes in einzelnen Datensätzen: Vermutete Ursachen und Wirkungen müssen in einer Zeile stehen. Dann erst kann eine Datenanalyse mit entsprechenden Softwarewerkzeugen durchgeführt werden.
Gebändigte Zeitreihen in Batch- und Kontoprozessen
Grundsätzlich sind bei der Aufbereitung von Zeitreihendaten aus dem Prozess und Labordaten zwei Prozessarten zu unterscheiden: Diskontinuierliche (Batch-)Prozesse und kontinuierliche Prozesse. Daten aus einzelnen Batches sind sehr umfassend. Die Zeitreihen jeder Prozessgröße und die Labordaten ergeben für jeden Batch hunderte von Datenpunkten. Mit speziellen Verfahren müssen daher aus den Batches erst Fingerprints generiert werden, in denen alle verdichteten individuellen Merkmale eines Batches, verglichen mit allen anderen typischen Batches, in einer Zeile enthalten sind. Die Art der Kennzahlen hängt dabei nur vom Prozess ab; so kann z. B. aus einer Temperaturkurve in einem Kristallisator die mittlere Abkühlrate berechnet werden. Diese Kennzahlen, die ja alle Besonderheiten eines Batches kurz beschreiben, sind die möglichen Ursachen einer schwankenden Qualität und der Kosten. Pro Batch entsteht so im System Prompt Batch von Atlan-tec eine Datenzeile, die Ursachen und Wirkungen vollständig enthält.
Kontinuierliche Prozesse haben variable Totzeiten, Rührreaktorcharakteristiken und Rückmischungen. Die Laboranalysen liegen zudem nur sporadisch vor, wogegen die Online-Daten alle paar Sekunden oder Minuten vorliegen. Bedingt durch die großen Behälter entstehen oft lange Verweilzeiten. Rührreaktoren, Verwirbelungen und Diffusion sorgen zudem dafür, dass statistische Vermischungen von Stoffen stattfinden. Diese komplexen Verweilzeiten betreffen jede Volumenscheibe eines Produktes, das sich durch die Anlage bewegt und selten am Ende der Anlage einer Analyse unterzogen wird. Jeder Analyse müssen also alle Prozessdaten zugeordnet werden, die auf ihre spezielle Volumeneinheit einwirkte, die sich durch den Prozess bewegte. Nur mit der speziellen Option Titan im Prozessinformations- und Management-System Prompt können diese Daten kausalrichtig entzerrt werden. In Titan werden leicht konfigurierbare Stoffstrommodelle verwendet. Der Prozess wird durch Eingabe von Ausliterungstabellen und der Nutzung von Durchflussmessgeräten bilanziert und zeitlich genau aufgelöst. Pro Laboranalyse erzeugt Titan eine Datenzeile mit Ursachen und Wirkungen (Laboranalysen).
Online-Optimierung
Die erzeugten kausalrichtigen Datensätze können nun teilweise durch Prozesskenntnis komprimiert werden. Betrachtet man beispielsweise einen endothermen Prozess, so werden die Kühlmittelmenge und dessen Temperatur zu einem Enthalpiestrom verrechnet. Ändert sich der Durchfluss in diesem Reaktor, so sollte der Quotient aus Enthalpiestrom und Produktmengenstrom (relative Enthalpie) berechnet werden. Dieses einfache Beispiel zeigt, wie vorhandenes Prozesswissen oder auch rigorose Modelle verwendet werden kann.
Aus den resultierenden Daten können nun mit der datengetriebenen Modellierungssoftware NeuroModel ohne Betriebsversuche Modelle errechnet werden. Mit Hilfe einer Sensitivitätsanalyse am neuronalen Modell werden all jene Größen aus der Betrachtung entfernt, die keinen Beitrag zu den Zielgrößen leisten. Das resultierende kompakte Modell wird nun in Testreihen mit dem wirklichen Betrieb verglichen und abgesichert.
Nach einigen Tests in der Messwarte kann das Modell dann zunächst dem Bedienpersonal online zum Beispiel eine Qualitätsprognose liefern, die die Laboranalyse vorwegnimmt und sie mehr oder weniger sekündlich neu berechnet und auf diese Weise gezielte Eingriffe des Bedienpersonals zur Verbesserung des Produktes ermöglicht. Erst wenn die Akzeptanz und das Vertrauen der Bedienmannschaft erreicht ist, kann im letzten Schritt der spezielle Optimierer GenOpt-Online nach Eingabe einer Zielfunktionen und Schranken und mit Hilfe des neuronalen Modells die Anlage vollautomatisch führen.
Der dargestellte Weg ist folgerichtig und bei konsequenter Umsetzung immer erfolgreich. Mit Hilfe eines korrekt arbeitenden Online-Prozessführungssystems mit Online-Optimierer kann der Prozess jederzeit im kostengünstigsten Betriebszustand gehalten werden.
Halle 17, Stand C49
E cav 262
Unsere Whitepaper-Empfehlung
Newsletter

Jetzt unseren Newsletter abonnieren

cav-Produktreport

Für Sie zusammengestellt

Webinare & Webcasts

Technisches Wissen aus erster Hand

Whitepaper

Hier finden Sie aktuelle Whitepaper

Top-Thema: Instandhaltung 4.0

Lösungen für Chemie, Pharma und Food

Pharma-Lexikon

Online Lexikon für Pharma-Technologie

phpro-Expertenmeinung

Pharma-Experten geben Auskunft

Prozesstechnik-Kalender

Alle Termine auf einen Blick


Industrie.de Infoservice
Vielen Dank für Ihre Bestellung!
Sie erhalten in Kürze eine Bestätigung per E-Mail.
Von Ihnen ausgesucht:
Weitere Informationen gewünscht?
Einfach neue Dokumente auswählen
und zuletzt Adresse eingeben.
Wie funktioniert der Industrie.de Infoservice?
Zur Hilfeseite »
Ihre Adresse:














Die Konradin Verlag Robert Kohlhammer GmbH erhebt, verarbeitet und nutzt die Daten, die der Nutzer bei der Registrierung zum Industrie.de Infoservice freiwillig zur Verfügung stellt, zum Zwecke der Erfüllung dieses Nutzungsverhältnisses. Der Nutzer erhält damit Zugang zu den Dokumenten des Industrie.de Infoservice.
AGB
datenschutz-online@konradin.de