Startseite » Chemie »

Wenige Versuchsdatensätze genügen

Rezepturoptimierung mit neuronalen Netzen
Wenige Versuchsdatensätze genügen

In vielen Bereichen der chemischen Produktion spielen Rezepturen eine bedeutende Rolle. Hierbei taucht immer wieder die Problematik auf, daß sehr viele Parameter so zu beeinflussen sind, daß das Produkt von gewünschter Qualität ist und die Herstellungskosten minimal bleiben. Durch die Entwicklung eines neuartigen Algorithmus ist es einem Unternehmen gelungen, für derartige Problemstellungen eine softwarebasierte Standardlösung anzubieten.

Die Vielzahl der Parameter, die bei der Rezepturoptimierung zu berücksichtigen sind, macht es sowohl in der Produktentwicklung als auch in der Verbesserung des Produktionsprozesses sehr schwierig, die richtige Kombination dieser Parameter zu finden. Mit jedem zusätzlich zu beeinflussenden Parameter steigt die Anzahl der notwendigen Versuche mindestens um den Faktor 3.

Die übliche Vorgehensweise zur Lösung einer derartigen Problemstellung besteht aus empirischen, auf Annahmen basierenden Versuchen. Dabei werden nur selten alle relevanten Kombinationen ausprobiert. Die erzielte Güte bleibt damit immer noch unterhalb der möglichen.
Modellierung mit neuronalen Netzen
Mit Hilfe eines neuronalen Netzes läßt sich die Rezeptur schon bei wenigen Versuchsdatensätzen zu einem Modell verrechnen, das dann mit Hilfe eines Optimierers den Parametersatz berechnet, der den optimalen Kompromiß zwischen Qualität und Kosten darstellt.
Zur Erstellung des Modells werden die Datensätze in das Softwarepaket NeuroModel(r) eingelesen. Dort erfolgt die Prüfung auf Konsistenz. Ein fehlerradienbasierter Clusteralgorithmus prüft, ob bei gleichen oder ähnlichen Parametersätzen eine unterschiedliche Produktqualität auftritt. Ist dieser Fall generell in den Datensätzen gegeben, weist NeuroModel den Anwender daraufhin, daß er Einflußgrößen möglicherweise nicht erfaßt hat. Einzelne Versuche, die zueinander im Widerspruch stehen, entfernt der Clusteralgorithmus.
Nach dem Clusterverfahren startet ein vollautomatisches Trainingsverfahren, das das Modell der Problemkomplexität anpaßt. Als Ergebnis erzeugt NeuroModel ein Modellfile, das mit der Kennung *.net abgespeichert wird.
Eine Sensitivitätsanalyse mit Pruning-Verfahren untersucht, welche Modelleingänge (d. h. Rezepturgrößen) keinen Einfluß auf die Ausgangsgröße (d. h. Produktqualität) haben. Diese Eingangsgrößen des Modells werden automatisch entfernt und das Modell mit den verbleibenden relevanten Eingangsgrößen zu einem nunmehr endgültigen Modell verrechnet.
Der Anwender hat die Möglichkeit, mit einer Sensitivitätsanalyse und Kausalitätsgrafiken die Zusammenhänge zwischen seinen Rezepturgrößen und der Produktqualität zu untersuchen. Die Sensitivitätsanalyse liefert eine Tabelle, die die durchschnittliche Sensitivität jedes Modellausgangs (Qualität) auf Änderungen eines jeden Modelleingangs (Rezepturparameter) beinhaltet. Diese Tabelle kann grafisch dargestellt und per Mausklick entweder grafisch oder tabellarisch in eine systemeigene Textverarbeitung hineindokumentiert werden. Eine weitere Möglichkeit besteht darin, über die Zwischenablage Tabellen oder Grafiken in eine externe Tabellenkalkulation oder Textverarbeitung zu übernehmen (Abb. 1).
Mit Hilfe der Funktion Kausalitätsgrafiken lassen sich verschiedene 2- oder 3dimensionale Schnitte des Modells erzeugen, wobei zusätzlich zu der Vorhersage des Modells auch SecurityNet(r)-Werte (Vertrauensintervalle) ausgegeben werden können. Dadurch erfährt der Anwender, wie genau das Modell an dem von ihm betrachteten Punkt ist. Der SecurityNet-Wert ist in der Einheit und Größenordnung der Ausgangsgröße skaliert, wodurch der Modellausgang direkt als Größe ± SecurityNet-Intervall interpretierbar ist.
Anwendung des genetischenRezepturoptimierers
Als weitere Analysefunktion enthält NeuroModel ab der Version 1.3 optional einen genetischen Optimierer. Dieser kann verwendet werden, um unter Eingabe bestimmter Schranken und einer anwenderkonfigurierbaren Zielfunktion die optimale Rezeptur zu berechnen.
Zunächst öffnet der Anwender hierzu den Dialog zur Konfiguration der Schranken. Hier hat er die Möglichkeit, den Suchraum des Optimierers einzuschränken, um so beispielsweise mathematisch oder physikalisch unmögliche Parameterkombinationen auszuschließen (Abb. 2). Außerdem muß vermieden werden, daß der Bereich, innerhalb dem Modell-Versuchsdaten zur Verfügung standen, im unvernünftigen Maße überschritten wird.
In diesem Dialog ist zu erkennen, daß das System nützliche Grundkonfigurationen bereits automatisch durchfährt. Andere sinnvolle Einschränkungen, daß beispielsweise die Gesamtmenge einer 100 kg betragenden Mischung nicht 100 kg überschreiten kann, werden in einfachen Dialogen angeboten. Benötigt der Anwender zusätzliche funktionale Zusammenhänge, steht ihm ein Parser zur Verfügung, in dem beliebige Verknüpfungen zwischen Konstanten (z. B. Preise) und Modellein- und ausgängen möglich sind.
Die Konfiguration der Zielfunktion (Abb. 3) führt der Anwender über einen Formelparser durch. Dieser ermöglicht ihm die Eingabe einer beliebigen Formel unter Verwendung von Eingängen, Ausgängen, Spaltensummen (z. B. für Preisgewichtungen) und Konstanten.
Nachdem der Anwender auch diesen Dialog entsprechend konfiguriert hat, startet der Suchalgorithmus und gibt ihm eine fertige Rezeptur, die die konfigurierten Bedingungen einhält und einen optimalen Punkt repräsentiert.
Ist der SecurityNet-Wert des Modells an dieser Stelle zu hoch, d. h., das Modell an der angegebenen Position zu ungenau, muß der Anwender an der Stelle mit der geschätzten Qualitätsverbesserung einen Versuch fahren und mit dem ermittelten Ergebnis das neuronale Modell verbessern. Am neuen Modell wird wiederum der Optimierer angewendet und eine Rezeptur generiert, die Gegenstand eines weiteren Versuchs ist, bis das Modell an dem vom Optimierer ausgegebenen Punkt sich optimal verhält.
Verwendung des neuronalen Modells
Das fertige neuronale Modell kann unter anderem mit Hilfe eines Add-In´s in Excel-Tabellen Verwendung finden. Dazu lädt der Anwender lediglich das Add-In und benutzt eine typische Excel-Formel, beispielsweise mit der Bezeichnung =NeuroModel(„Modell.net“;1;A1;B1;…;X1). Mit Hilfe dieser Funktion ist es auch möglich, den Excel-eigenen Optimierer zu verwenden, oder aber Excel-Grafiken verschiedener Zusammenhänge zu erstellen.
Außerdem gibt es eine Reihe von Runtime-Paketen für NeuroModel, die von unterschiedlichen Prozeßleitsystemen und Speicherprogrammierbaren Steuerungen portiert bzw. an diese angebunden werden können.
Damit hat der Anwender die Möglichkeit, von der Analyse seiner Daten über die Versuchsplanung und die Offline-Modelloptimierung bis hin zur Verwendung in Regelstrategien mit einem Softwarepaket komplette Lösungen zu erstellen.
Weitere Informationen cav-204
Unsere Webinar-Empfehlung
Newsletter

Jetzt unseren Newsletter abonnieren

cav-Produktreport

Für Sie zusammengestellt

Webinare & Webcasts

Technisches Wissen aus erster Hand

Whitepaper

Hier finden Sie aktuelle Whitepaper

Top-Thema: Instandhaltung 4.0

Lösungen für Chemie, Pharma und Food

Pharma-Lexikon

Online Lexikon für Pharma-Technologie

phpro-Expertenmeinung

Pharma-Experten geben Auskunft

Prozesstechnik-Kalender

Alle Termine auf einen Blick


Industrie.de Infoservice
Vielen Dank für Ihre Bestellung!
Sie erhalten in Kürze eine Bestätigung per E-Mail.
Von Ihnen ausgesucht:
Weitere Informationen gewünscht?
Einfach neue Dokumente auswählen
und zuletzt Adresse eingeben.
Wie funktioniert der Industrie.de Infoservice?
Zur Hilfeseite »
Ihre Adresse:














Die Konradin Verlag Robert Kohlhammer GmbH erhebt, verarbeitet und nutzt die Daten, die der Nutzer bei der Registrierung zum Industrie.de Infoservice freiwillig zur Verfügung stellt, zum Zwecke der Erfüllung dieses Nutzungsverhältnisses. Der Nutzer erhält damit Zugang zu den Dokumenten des Industrie.de Infoservice.
AGB
datenschutz-online@konradin.de