Industrieunternehmen erheben und speichern heute riesige Datenmengen. Mit Hilfe der Data-Mining-Technologie lassen sich durch intelligente, mathematisch-statistische Verknüpfung dieser Daten Zusammenhänge aufzeigen, aus denen Strategien abgeleitet werden können, die zur Qualitätssteigerung, Produktivitätsverbesserung und Umsatzsteigerung führen.
In den Industriebetrieben stieg die Zahl installierter Prozessdatenbanken und Data Warehouses in den letzten Jahren enorm an (Abb. 1). Neben den Produktionsanlagen gehören die im Rahmen der Informationsverarbeitung anfallenden Daten zu den wichtigsten Assets im Unternehmen. Die, während des Produktionsprozesses anfallenden Daten enthalten Informationen, die Wettbewerbsvorteile und zusätzliches Rationalisierungspotenzial freisetzen können. Weil der eigentliche Nutzen dieser Daten häufig im Verborgenen liegt, werden die darin enthaltenen Informationen vielerorts nur unzureichend genutzt.
Anzeige
Die Überwachung von Pumpen in industriellen Prozessen ist weit mehr als eine reine Schutzmaßnahme für das Pumpenaggregat. Neben der präventiven Wartung und...
Sorgfältige Datenanalyse
Zu den Vorreitern unter den Anwendern von Data Mining Methoden zählen Banken und Versicherungen. Schon seit Jahren analysiert diese Unternehmensgruppe die großen Datenmengen über ihre Kunden, um wichtige Informationen für Marketingzwecke freizulegen. Mit Hilfe kundenspezifischer Daten lassen sich nicht nur homogene Kundengruppen erkennen, sondern auch deren Kauf- und Kündigungsverhalten vorhersagen. Wie wichtig die sorgfältige Datenanalyse für Unternehmen aller Branchen ist, zeigen Studien führender Marktanalysten. Nach Meinung der Analysten gehört Data Mining zu den drei wichtigsten Innovationstechnologien, mit denen Unternehmen ihren Fortbestand sichern. Die Anwendung von Data Mining Methoden schöpft den Wert aus den vorhandenen Daten und macht ihn für Optimierungsprozesse nutzbar.
Interpretation der Ergebnisse
Neben der sorgfältigen Datenanalyse und dem Aufspüren von Informationszusammenhängen gehört die richtige Interpretation der Ergebnisse zu den wichtigsten Schritten innerhalb eines Data Mining Projektes. In der Tat haben schon zahlreiche Projekte zur Verbesserung von Produktqualität, zur Verkürzung von Entwicklungszeiten oder zur Rationalisierung der Produktion beigetragen. Vor allem in der Prozessindustrie zeigen sich hervorragende Ansatzpunkte für erfolgreiches Data Mining. Kennzeichnend für die verfahrenstechnische Prozessführung ist unter anderem die Tatsache, dass wesentliche Qualitätsparameter des Endproduktes, wie zum Beispiel die Festigkeit eines speziellen Grundstoffes oder die Viskosität eines Lackes, nur stündlich im Labor gemessen werden, und erst danach korrigierend in den Prozess eingegriffen wird. Bis sich allerdings die Änderungen der Einstellparameter der Reaktoren auf die Qualität des Endproduktes auswirken, vergeht die prozessbedingte Totzeit. Mit Hilfe von Data Mining werden schon heute in zahlreichen Produktionsanlagen Modelle zur Bestimmung von aufwendig messbaren Größen genutzt, durch die sich das Verhalten des Produktes direkt aus den Einstellparametern vorhersagen lässt. Ein anderes Beispiel sind komplexe, verfahrenstechnische Produktionsanlagen mit einer nachgeschalteten Kläranlage. Die Produktionspläne und die dynamischen, biologischen Prozessparameter der Kläranlage können in einen Zusammenhang gebracht und mit den Ergebnissen unzulässige Grenzwertüberschreitungen durch eine zusätzliche Regelung vermieden werden. Die Kunst steckt in der richtigen Kombination der Informationen und deren Auswertung – genau das macht Data Mining eigentlich zu einem universellen Werkzeug zur Entschlüsselung von verborgenem Wissen. ABB beschäftigt sich schon seit Jahren mit dieser Art der Wissensextraktion und bietet diese Dienstleistung in großem Stil für verschiedene Industriezweige an. Das Data Mining Center ist spezialisiert auf die Anwendung der entsprechenden rechnergestützten Werkzeuge, durch die verborgene Zusammenhänge sichtbar werden.
Experimentelle Modelle
„Data Mining basiert auf mathematisch/statistischen Verfahren und beruht auf der Erstellung experimenteller Modelle, die wiederum Zusammenhänge beschreiben, die mathematisch in dieser Form nicht zu beschreiben sind“, erklärt Dr. Ralf Otte (Abb. 2), Leiter des Data Mining Centers der ABB Process Industries GmbH, die theoretischen Grundlagen. Anders als bei analytischen Modellrechnungen, deren Lösung immer mathematisch exakt ist, ist Data Mining eher eine Art Wahrscheinlichkeitsrechnung mit dem großen Vorteil, dass auch Zusammenhänge aufgedeckt und damit nutzbar werden, die vordergründig nicht zu erkennen sind. So lässt sich beispielsweise, durch die wissenschaftliche Analyse von Prozessdaten, das individuelle Verhalten einer Produktionsanlage als Grundlage für eine anschließende Optimierung beschreiben (Abb. 3). „Aktuelle und historische Daten aus Leitsystemen und Sensoren aller Art, kombiniert mit Instandhaltungsdaten, Umwelt- und Labordaten werden verwandt, um ein komplettes Bild des Zustandes und der Perfomance einer Anlage zu liefern“, beschreibt Otte das Verfahren. Die dabei zur Anwendung kommenden Methoden und Algorithmen sind schon seit Jahrzehnten bekannt und beschrieben, doch erst die moderne Informationsverarbeitung mit leistungsfähigen Rechnern ermöglicht binnen kürzester Zeit aussagefähige Ergebnisse.
Individuell abgestimmt
Im Unterschied zu Herstellern von Data Mining-Tools und Software, bietet ABB eine Consulting-Dienstleistung an. Aus den 10 bis 20 marktführenden Tools, in denen mehrere, ähnliche Algorithmen enthalten sind, wählen die Data Mining-Experten genau jene Methoden aus, die dem jeweiligen Problem am besten entsprechen. Die Data Mining-Programme haben nämlich gewisse Präferenzen für bestimmte Anwendungen oder Branchen. In einem komplexen Projekt reicht oft ein einziges Tool nicht aus, es wird eine Kombination aus mehreren Modellen ausgewählt, um zufällige Ergebnisse von systematischen unterscheiden zu können. Erst wenn verschiedene Algorithmen zu den gleichen Aussagen kommen, werden die gefundenen Ergebnisse als systematische Regeln anerkannt und präsentiert. Für Otte ist es wichtig, dass der Kunde nicht unbedingt ein hochentwickeltes Data Warehouse besitzen muss, um ein effizientes Data Mining zu betreiben. „Wir bieten auch eine kleine Lösung an, deren Aussagekraft natürlich begrenzt bleibt, aber bei vielen Kunden auch schon als Feasibility-Studie für den Aufbau eines Data Warehouses gedient hat“, erklärt Otte. Auch selbstlernende Modelle sind möglich, wobei Data Mining nicht in die Zukunft projizieren, sondern immer nur vergangenheitsbezogen sein kann. Data Mining induziert Regeln aus Vergangenheitsdaten und generiert damit Expertenwissen, welches durchaus auch in entsprechende Systeme eingepflegt werden kann.
Ein Data-Mining-Projekt hat eine Laufzeit von etwa drei Monaten, wobei etwa die Hälfte der Zeit für die Aufbereitung der Daten aufgewendet werden muss. Denn die Daten liegen in zahlreichen unterschiedlichen Formaten und unterschiedlichen zeitlichen Auflösungen vor und müssen dementsprechend synchronisiert werden. Ausreißer sind zu eliminieren oder anzugleichen. Schließlich erfolgt noch eine Normierung und Standardisierung. Danach kann mit der Berechnung begonnen werden.
ABB lässt seine Kunden mit den gewonnenen Erkenntnissen nicht allein, sondern ist als Automatisierungspartner in der Lage, in zahlreichen Industriebranchen die technische Umsetzung der erkannten Optimierungspotenziale durchzuführen. Ein großes Problem für die Kunden ist häufig die Tatsache, dass ABB während des Data-Mining-Prozesses Einsicht in sensible Datenbestände bekommt. Die Vertraulichkeit steht an erster Stelle eines jeden DM-Projektes, deshalb können Referenzen nur bedingt herangezogen werden.
E cav 231
Unsere Webinar-Empfehlung
Die Websession „Wasserstoff in der Chemie – Anlagen, Komponenten, Dienstleistungen“ (hier als Webcast abrufbar) zeigt technische Lösungen auf, die die Herstellung und Handhabung von Wasserstoff in der chemischen Industrie sicher machen und wirtschaftlich gestalten.
Ob effizienter…
Teilen: