Startseite » Chemie » Verfahren chemisch (Chemie) »

Integrierter Pilotanlagenbetrieb

Schnellere Prozessentwicklung dank neuronaler Netze
Integrierter Pilotanlagenbetrieb

Bei der Entwicklung neuer chemischer Produktionsprozesse steht der Betrieb von Pilotanlagen im Brennpunkt. Es gilt unliebsame Überraschungen beim Scale-up aus dem Labor oder beim Scale-down zurück in den Pilotmaßstab zu vermeiden: In beiden Fällen entscheidet ein effizientes Design von Hard- und Software und die zeitoptimierte Versuchsdurchführung über den wirtschaftlichen Erfolg des Projektes. Dieser Herausforderung stellt sich der Bereich Piloting der Celanese Chemicals im Werk Oberhausen.

Michael Mertl, Dietmar Thiel

Wenigstens 8 bis 10 Pilotanlagen mit sehr unterschiedlichen Strukturen sind im Oberhausener Werk der Celanese Chemicals rund um die Uhr in Betrieb (Abb. 1). Die Prozesspalette reicht von Festbettreaktoren für Vinylacetat und Oxo-Alkohole bis zu Rührkesseln und Rohrreaktoren für die Synthese von Aldehyden. Spezielle auf Anwenderwünsche abgestimmte Sonderkonstruktionen gehören ebenfalls zum Repertoire. Entsprechend komplex sind die von umfangreicher Sensorik und Aktorik gewonnenen Datenströme aus den Pilotanlagen, die in Prozessdesign-Informationen umgewandelt werden müssen (Abb. 2).
Datenstruktur
Der gesamte Bereich der Pilotanlagen ist mit einem Prozessleitsystem Freelance 2000 ausgestattet. Da aus historischen Gründen die wesentlichen Sektionen des Pilotingbereiches über 600 m voneinander entfernt sind, werden diese Bereiche für An- und Abfahrvorgänge aus zwei voneinander unabhängigen Messwarten überwacht (Abb. 3). Beide Kontrollräume sind aber mit entsprechenden Remote-Control-Funktionen ausgestattet, die die Übernahme sämtlicher Funktionen von der jeweils anderen Messwarte gestattet.
Alle in den Pilotanlagen anfallenden Daten werden über die Prozessleitsysteme und ein separates Glasfaser-Netzwerk in eine zentrale Datenbank eingespeist. Die Oracle-Datenbank der Version 8.0i setzt auf einer Xeon-Hardware unter MS-NT4.0 auf. Durch die homogene Betriebssystemstruktur, von der Prozessstation über die Datenbank bis hin in den Office-Bereich, konnten personal- und kostenintensive Insellösungen vermieden werden.
Zusätzlich zu den Pilotanlagendaten werden in der Oracle-Datenbank auch die Daten der Miniplants und Microunits der Forschungslabors zusammengeführt, so dass der komplette Prozessentwicklungszyklus in ihr abgebildet wird. Die Datenbank stellt die integrierende Informationsplattform dar, auf die von allen weltweiten Standorten der Celanese mittels der Standardsoftware des Office-Netzwerkes zugegriffen werden kann. Externen Anwendern, die im Auftrage der Geschäftsbereiche bedient werden, wird der Zugriff auf ihre Versuchsdaten über eine ISDN-Leitung gestattet.
Prompter Zugriff
Die Verwaltung der Prozessdaten erfolgt mit dem Prompt-System von Atlan-tec, das eine Vielzahl von offen gestalteten Schnittstellen zu den angrenzenden Systemapplikationen zur Verfügung stellt. Gleichzeitig können benutzerspezifische Applikationen jederzeit in den Datenstrom eingeklinkt werden. Damit wird ein flexibles Prozessdaten-Mangementsystem realisiert, das die starren Strukturen und die hohen Kosten der auf Großanlagen ausgerichteten Softwareprodukte vermeidet (Abb. 4).
Ein integriertes Datenmanagement ermöglicht nicht nur den effizienten Betrieb dieser Anlagen sondern auch eine zeitgleiche Auswertung der Versuche durch online geschaltete Reaktor- und Reaktionsmodelle, ein Bereich, in dem etablierte Anbieter von Prozesssimulationssoftware in der Regel immer noch überfordert sind (Abb. 5).
Detaillierte Reaktormodelle
Eine wesentliche Komponente der verfahrenstechnischen Modellierung und Simulation sind detaillierte Reaktormodelle, die eine Bestimmung von chemisch-kinetischen Parametern zeitgleich zum Pilotanlagenlauf ermöglichen. Die althergebrachte sequentielle Batchverarbeitung von Versuchsdaten ist einer von hoher Effizienz gekennzeichneten parallelen Arbeitsweise mit entsprechenden Zeitvorteilen gewichen.
In diesen Reaktormodellen ist das gesamte Know-how des Reaktor- und Katalysatordesigns fokussiert. So werden beispielsweise die Festbett-Katalysatoren vor dem Einsatz in den Produktionsanlagen unter identischen Bedingungen in Pilotreaktoren getestet und das zeitliche Verhalten der Temperatur- und Konzentrationsprofile über Monate beobachtet. Parallel zu der rein phenomenologischen Versuchsauswertung werden chemisch-kinetische Parameter des Reaktormodells online berechnet. Die zeitliche Veränderung dieser Parameter gestattet einen detaillierteren Blick in den Mechanismus der Katalysator-Desaktivierung und ermöglicht in den entsprechenden Prozesssimulationen kommerzieller Anlagen eine punktgenaue Produktionsplanung.
Grundlage hierfür ist allerdings eine möglichst exakte Modellierung des Reaktors, um Stoff- und Wärmetransporteinflüsse sauber von der chemischen Kinetik trennen zu können. Die Berücksichtigung von Stofftransportvorgängen am und im Katalysatorkorn gehört ebenso dazu, wie eine Beschreibung der intrinsischen Kinetik, die weit über die üblichen Potenzansätze hinausgeht. Da die hierfür benötigten komplexen parametrisch-verteilten Modelle in den etablierten Simulationspaketen nicht angeboten werden, müssen sie zwangsläufig selbst entwickelt und gepflegt werden.
Die Kopplung dieser Eigenentwicklungen mit kommerzieller Prozesssimulationssoftware stellt schon lange keine softwaretechnische Herausforderung mehr dar. Die Nachführung der chemisch-kinetischen Modelle für unterschiedliche Katalysatorformulierungen ist dagegen in der Regel mit einem erheblichen Aufwand verbunden. Die Parametrisierung des Modells parallel zur Kommissionierung eines Katalysators in der Pilotanlage minimiert diesen Aufwand deutlich.
Da intrinsische kinetische Daten – abgesehen von gewissen Modellvereinfachungen – prozessunabhängig sind, können sie vorteilhaft für den Retrofit bestehender Produktionsprozesse eingesetzt werden. So werden beispielsweise für einige Festbettprozesse Wirbelbett-Varianten evaluiert, deren drastisch veränderte Verweilzeitcharakteristik und Temperaturgradienten sich gezielt für die Reaktionsoptimierung einsetzen lassen.
Einsatz neuronaler Netze
Unglücklicherweise lassen sich nicht alle Vorgänge in Pilot- und Produktionsanlagen über die wohlbekannten mechanistischen Ansätze beschreiben; zumindest wenn das Ziel der Problemlösung in ein akzeptables Verhältnis zum zeitlichen und finanziellen Aufwand gestellt wird. Hier kommt die Erstellung und Nutzung rein datengetriebener Modelle wie die der neuronalen Netze ins Spiel. Da der Piloting-Betrieb der Celanese in Oberhausen seit einigen Jahren alle anfallenden Daten (Labordaten, PLS, usw.) in einer Betriebsdatenbank aufzeichnet, dienen diese als Grundlagen für die datengetriebene Modellierung. Um ein neuronales Netz in der realen Anlage online einsetzen zu können, bedarf es einiger Vorarbeiten. Durch Selektieren historischer Datensätze wird ein Basisdatensatz zur Erstellung eines neuronalen Netzwerkes aufgebaut. Für die Zuverlässigkeit und Aussagekraft des Modellierungsergebnisses ist es von Vorteil, wenn dieser Basisdatensatz die unterschiedlichsten Anlagenzustände, somit auch das An- und Abfahren der Anlage, enthält.
Die Betriebsdatenbank des Piloting beinhaltet neben den An- und Abfahrdaten auch vielfältige Informationen über differierende Arbeitspunkte einer Anlage oder eines Verfahrens. Das nun geforderte Selektieren und Fokussieren der Eingangsvariablen für das neuronale Netz wird stets von einem interdisziplinär besetzten Arbeitsteam vorgenommen. In fast allen Fällen wird nur eine Optimiervariable pro neuronalem Netzwerk gewählt. Darüber hinaus können mehrere differierende aber miteinander konkurrierende neuronale Netze parallel geschaltet werden. Der beste Lösungsansatz wird dann bis zur Beeinflussung der Zielgröße durchgeschaltet. Durch diese Vorgehensweise verringert sich die benötigte Anzahl von Trainingsdatensätzen. Weiterhin wird die Rechenzeit minimiert, was bei einer späteren online Anwendung der neuronalen Modelle nicht zu vernachlässigen ist.
Sorgfalt und Umsicht
In den neuronalen Modellen des Piloting in Oberhausen kommt der SecurityNet-Algorithmus zum Einsatz. Dieser Algorithmus nutzt die Vorteile von RBF-Netzen (Radial Basis Function Net) und MLP´s (Multi Layer Perceptron) mit dem Backpropagation-Algorithmus vereint, ohne jedoch deren Nachteile aufzuweisen. Um zu einem erfolgreichen und aussagekräftigen Modell zu gelangen, ist bei der Festlegung der voneinander unabhängigen Messstellen für die Eingangsneuronen und dem zugehörigen Ausgang große Sorgfalt und Umsicht erforderlich, um nicht Schein-Abhängigkeiten zu analysieren.
Über Datenclustering und wiederholtes Training des neuronalen Netzes besteht die Möglichkeit einer Sensitivitätsanalyse, um die wirklich relevanten Prozessgrößen und ihre Wechselwirkungen zu identifizieren. Sensoren und Aktoren werden über die Sensitivitätsanalyse gezielt einer Qualitätsprüfung unterzogen und gegebenfalls ausgewechselt. Die Validierung des generierten neuronalen Modells wird schrittweise mittels einer Runtimer-Funktion vorgenommen. Der abschließende Einsatz von genetischen Algorithmen am neuronalen Netz dient zum automatisierten Auffinden der optimalen Betriebspunkte.
Neuronale Netze können somit sehr vorteilhaft für die Optimierung bestehender Anlagen eingesetzt werden, haben allerdings keine Scale-up-Fähigkeit und nur eine begrenzte Extrapolierbarkeit. Beim Pilotanlagenbetrieb werden sie zur Analyse und Optimierung von Betriebspunkten eingesetzt und stellen damit ein wichtiges Instrument der Qualitätssicherung und Qualitätsverbesserung dar. Methodische Erfahrungen mit diesen Werkszeugen können dann auf den Einsatz im Rahmen von Produktionsanlagen übertragen werden.
Retrofit mit Titan
Zur Zeit wird im Bereich Piloting der Celanese in Oberhausen der Retrofit einer nordamerikanischen Produktionsanlage der Celanese durchgeführt. Wegen der Komplexität der Pilotanlage, die sich in einem segmentierten Reaktionsteil mehreren thermischen Trennoperationen sowie entsprechenden Rückführungen äußert, treten bei dem versuchsgemäßen Wechsel der Betriebspunkte erhebliche dynamische Effekte auf. Diese Effekte erzwingen für die Versuchsauswertung eine entsprechende zeitkorrekte Aufarbeitung der Prozessdaten innerhalb der Datenbank.
Hierfür wird das Produkt Titan von Atlan-tec eingesetzt. Bei Titan handelt es sich um ein System zur Verfolgung von Produktströmen in kontinuierlich betriebenen Anlagen. Prinzipiell wird dazu für jeden in der Anlage befindlichen Behälter ein individuelles dynamisiertes Totzeitverhalten zugeordnet. Mit einigen speziellen mathematischen Verfahren werden die Messwerte jeweils einem Bezugspunkt der Anlage kausal richtig zugeordnet. Für jede Bezugsgröße wird nun durch die Experten ein spezielles Template konfiguriert, das die zeitlichen Merkmale des gewählten Bezugspunktes modellhaft darstellt. Doch von all dem merkt der einfache Anwender nichts. Er wählt lediglich den Bezugspunkt in der zu betrachtenden Anlage aus und erhält kausalrichtig entzerrte Datensätze mittels eines Browsers. Diese kausalrichtige Zuordnung der Datensätze bringt bei der Rückführung der Simulationen in das Prozessleitsytem, und somit auf die Sollwerte verschiedener Regler, erhebliche Vorteile.
Mehr Effizienz
Durch den Einsatz von Titan in den Pilotanlagen kann das Frequenzverhalten der Masseströme in der Anlage einwandfrei verfolgt und über eine entsprechende Regelstrategie beeinflusst werden. Massenmit- und Gegenkopplungen in Kolonnen und Behältern verlieren ihren Schrecken für die Regelungstechnik. Durch frühzeitigen Eingriff der Aktoren in den Prozess werden kritische Arbeitsbereiche vermieden, neue Regelstrategien möglich und somit eine noch effizientere Beeinflussung der Anlage und des Prozesses realistisch.
Die Ermittlung korrekter Design- und Optimierinformationen ist in einem Umfeld, das konsequent in Wertschöpfungsketten denkt, nur das nötige Fundament für die Prozessentwicklung und -optimierung. Die zeitnahe Übermittlung der von hoher Aussagekraft geprägten Informationen an die internen oder auch externen Kunden ermöglicht, diese Basisinformationen in neue Prozesse und damit in einen realen Wettbewerbsvorteil auf dem Weltmarkt umzusetzen.
Wichtige Rohdaten und Informationen werden daher weltweit über HTML-Seiten im firmeneigenen Intranet dargestellt und garantieren zeitnahe Diskussion aller am Wertschöpfungsprozess beteiligten Personen. Hierbei werden durch eine selektive Aufbereitung der Daten alle Hierarchie-Ebenen angesprochen. Sowohl dem Experten, der alles im Detail wissen muss, als auch dem F&E-Management, das für die Designsteuerung verantwortlich ist, bis zum Business-Direktor, der die Verwendung seiner F&E-Ressourcen im Blick hat, werden die Informationen zur Verfügung gestellt. Alle Komponenten zusammen führen zu einer deutlichen Beschleunigung des Prozessentwicklungszyklus und werden somit den heutigen Marktanforderungen gerecht.
E cav 269
Unsere Webinar-Empfehlung
Newsletter

Jetzt unseren Newsletter abonnieren

cav-Produktreport

Für Sie zusammengestellt

Webinare & Webcasts

Technisches Wissen aus erster Hand

Whitepaper

Hier finden Sie aktuelle Whitepaper

Top-Thema: Instandhaltung 4.0

Lösungen für Chemie, Pharma und Food

Pharma-Lexikon

Online Lexikon für Pharma-Technologie

phpro-Expertenmeinung

Pharma-Experten geben Auskunft

Prozesstechnik-Kalender

Alle Termine auf einen Blick


Industrie.de Infoservice
Vielen Dank für Ihre Bestellung!
Sie erhalten in Kürze eine Bestätigung per E-Mail.
Von Ihnen ausgesucht:
Weitere Informationen gewünscht?
Einfach neue Dokumente auswählen
und zuletzt Adresse eingeben.
Wie funktioniert der Industrie.de Infoservice?
Zur Hilfeseite »
Ihre Adresse:














Die Konradin Verlag Robert Kohlhammer GmbH erhebt, verarbeitet und nutzt die Daten, die der Nutzer bei der Registrierung zum Industrie.de Infoservice freiwillig zur Verfügung stellt, zum Zwecke der Erfüllung dieses Nutzungsverhältnisses. Der Nutzer erhält damit Zugang zu den Dokumenten des Industrie.de Infoservice.
AGB
datenschutz-online@konradin.de