Startseite » Pharma » Industrie 4.0 (Pharma) »

Bessere Qualität in Pharma und Biotech durch Advanced Analytics

Bessere Qualität durch Produkt- und Prozessverständnis in Pharma und Biotech
Advanced Analytics im Herstellungsprozess

Advanced Analytics im Herstellungsprozess
Die Menge an verfügbaren Daten aus Forschung, Entwicklung und Produktion nimmt rasant zu und kann nur mit effizienter Data Analytics nutzbar gemacht werden Bild: VTU Engineering
Die systematische Zusammenführung und ganzheitliche Auswertung der Daten aus Forschung, Entwicklung und Produktion können ein besseres Verständnis der Faktoren ermöglichen, die für die Arzneimittelqualität und Ressourceneffizienz bei der Herstellung relevant sind. VTU besitzt umfassendes Know-how in den Bereichen Datenmanagement, -integrität und -analyse sowie GxP-Compliance und kann damit seinen Kunden als holistischer Partner bei Digitalisierungsprojekten zur Seite stehen.

Das Quality-by-Design (QbD)-Konzept hat sich für die Entwicklung neuer Arzneimittel und ihrer Herstellprozesse etabliert. Eine erfolgreiche Umsetzung von QbD erfordert jedoch den Aufbau von fundiertem Verständnis des Produkts und seines Lebenszyklus (Herstellung, Lagerung, Verwendung, etc.). Konkret gilt es, diejenigen Eigenschaften zu ermitteln, die aus Sicht des Patienten für die Qualität des Arzneimittels entscheidend sind, d. h. seine klinische Wirkung beeinflussen. Diese Eigenschaften werden dann als kritische Qualitätsattribute (critical quality attributes, CQAs) klassifiziert und akzeptable Wertebereiche für ihre Ausprägung definiert. Ein Beispiel für ein CQA kann die Konzentration einer Verunreinigung sein, die als Nebenreaktion bei der Wirkstoffsynthese entsteht. Im Kontext von QbD muss klar sein, auf welche Weise die CQAs mit den Variablen des Herstellprozesses (Rohmaterial-/Intermediateigenschaften und Prozessparameter) zusammenhängen. Nur so kann die Produktqualität zu jedem Zeitpunkt sichergestellt werden.

Die richtigen Methoden anwenden

Im Zusammenhang mit QbD wird oft auch der von der FDA geprägte Begriff Process Analytical Technology (PAT) verwendet. In ihrem Leitfaden zu PAT hat die FDA bereits 2004 explizit die Verwendung von multivariater Datenanalyse und Methoden zur Mustererkennung in großen Datensätzen erwähnt. Dies soll dazu dienen, quantitative Information über Zusammenhänge zwischen CQAs und Prozessvariablen in Form von mathematischen Beziehungen und Modellen zu generieren. Diese Information kann dann z. B. dazu genutzt werden, auf Veränderungen in den Prozessvariablen passend zu reagieren, um trotzdem konstante Produktqualität zu erreichen.

Die fortschreitenden Entwicklungen in den Bereichen Messtechnik und IT haben dazu geführt, dass die Menge an verfügbaren Daten aus Forschung, Entwicklung, Produktion, etc. rasant zunimmt. Effiziente Zusammenführung und Auswertung dieser Daten kann es ermöglichen, für mehr Prozessparameter und Materialeigenschaften deren Einfluss auf die Qualität des fertigen Arzneimittels zu bestimmen. Moderne Algorithmen aus dem Bereich des maschinellen Lernens sind in der Lage, Muster in großen Datensätzen zu erkennen und komplexe Zusammenhänge zwischen Variablen zu quantifizieren. So können systematische Vergleiche verschiedener Produkte und Herstellprozesse angestellt und die sichere Entwicklung und Herstellung von Arzneimitteln beschleunigt werden.

Data Analytics in der Praxis

Doch wie nützlich ist die Datenanalyse für die Sicherstellung der Arzneimittelqualität? Wie sieht der Nutzen in der Praxis aus? In einer Produktionsanlage für ein therapeutisches Protein wies beispielsweise einer von drei baugleichen Bioreaktoren konstant eine schlechtere Leistung in Bezug auf das Zellwachstum und die Produktionsausbeute auf, als die beiden anderen. Zur Ursachenforschung wurden die Daten aus dem Prozessleitsystem für einen längeren Produktionszeitraum von VTU-Mitarbeitern exportiert und mittels Machine Learning analysiert. Dabei zeigte sich, dass die Temperatur des Substrats, das während der Fermentation zugeführt wird, einen hohen Einfluss auf das Ergebnis hat. Auf den ersten Blick hat dieses Ergebnis überrascht, da man davon ausgegangen ist, dass dieser Parameter im Prozess gut kontrollierbar ist. Daraufhin prüften die Betriebsingenieure die Substratzuleitung des problembehafteten Bioreaktors und stellten fest, dass sie eine schadhafte Isolation aufwies. Durch die Reparatur der Isolation konnte das Problem behoben werden. Eine vertiefte Analyse von Prozessdaten hilft somit effektiv, die Suche nach Fehlerursachen bei Anlagen zu beschleunigen. Der zeitliche Aufwand bei diesem Projekt war mit
ca. 80 Arbeitsstunden relativ gering im Vergleich zur herkömmlichen Fehlersuche.

Die Vergleichbarkeit des Herstellprozesses auf verschiedenen Skalen und Anlagen ist ein zentraler Aspekt über den gesamten Lebenszyklus eines Arzneimittels, d. h. von der prä-klinischen (Verfahrensentwicklung auf Labor- und Pilotmaßstab) über die klinische Entwicklung (Phase I, Phase II, etc.) bis hin zu den verschiedenen Phasen der kommerziellen Produktion (Technologietransfer zwischen Anlagen, Prozessverbesserungen, etc.). Im Zuge dessen werden Unmengen von Daten (Laboranalysen, Prozessparameter, etc.) aufgezeichnet. Algorithmen aus dem Machine Learning können dazu eingesetzt werden, die hochdimensionale Information dieser Datenpunkte zu erfassen und auf wenige aussagekräftige Dimensionen zu reduzieren. Dies ermöglicht dann die automatische Gruppierung der Datenpunkte und die Auswertung, welche Prozessparameter für gefundene Unterschiede zwischen Produktchargen verantwortlich sind. Gegebenenfalls müssen diese angepasst werden, um die Übereinstimmung zwischen Chargen von verschiedenen Anlagen etc. zu erhöhen.

CQAs in der Produktion steuern

Ein wichtiger Schritt bei der Entwicklung eines Herstellprozesses ist die Identifikation von Prozessparametern, die einen signifikanten Einfluss auf die Produktqualität und auf die Leistungsfähigkeit des Prozesses haben. Dies wird routinemäßig auf Labormaßstab im Rahmen von Prozesscharakterisierungsstudien durchgeführt. Solche Studien können aber nicht sämtliche Parameter untersuchen. Außerdem kann es skalenbedingte Unterschiede zwischen Laborversuchen und Produktionschargen geben, die schwer zu kompensieren sind. Die eingehende Analyse von Produktionsdaten mittels Machine Learning kann zusätzliche Prozessparameter und Materialeigenschaften erkennen, die einen wichtigen Effekt auf das Ergebnis haben können und somit einer genaueren Kontrolle für die Sicherstellung von Qualität und Leistung bedürfen.

Ein Aspekt in Bezug auf das Thema PAT ist die Bestimmung und Überwachung von chemischen und biologischen Eigenschaften von Rohmaterialien, Intermediaten und fertigem Produkt in Echtzeit während des Herstellungsprozesses. Dazu werden in erster Linie spektroskopische Methoden eingesetzt, d. h. NIR, Raman, NMR, etc., da die zugehörigen Sensoren relativ leicht in Anlagen integriert werden und Messungen in kurzer Zeit durchführen können. Die aufgenommenen Spektren sind dabei eine komplexe Überlagerung der Spektren der vorhandenen Substanzen und man benötigt ausgeklügelte mathematische Modelle, um die gesuchte Information daraus zu extrahieren. Deshalb kommen dort ebenfalls Algorithmen aus der multivariaten Datenanalyse und aus dem Machine Learning zum Einsatz, um möglichst genaue Vorhersagen zu treffen. Die so gewonnene Echtzeitinformation könnte man im weitreichendsten Fall in Kombination mit geeigneten Prozessmodellen dazu nutzen, CQAs von Arzneimitteln während der Produktion direkt zu steuern.

Voraussetzung ist höchste Qualität

Um aussagekräftige Analysen durchzuführen, müssen einige Voraussetzungen erfüllt sein. Ganz allgemein müssen alle relevanten Daten in ausreichender Qualität vorhanden sein. Das beinhaltet neben Werten für die Prozessparameter auch sekundäre Information wie Änderungen an der Herstellvorschrift, Änderungen an der Anlage, etc. Des Weiteren braucht es Metainformation zu den Daten, wie Datum und Uhrzeit, Sensortag, Chargennummer etc., ohne die die Daten in keinen Kontext gesetzt werden können. Ein wichtiger Aspekt ist auch das Management und die Anbindung von Daten aus verschiedenen Quellen (Entwicklungs-labors, Pilotanalagen, Prozessanalyselabors, Qualitätssicherungs- und Qualitätskontrolllabors, Produktionsanlagen, etc.). Implementierung eines funktionierenden Informationsmanagementsystems ist deshalb unabdingbar. Zusätzlich hat das Thema der Datenintegrität in letzter Zeit im GxP-regulierten Umfeld vermehrte Aufmerksamkeit bekommen. Nur integre Daten dürfen für Analysen verwendet werden und die Integrität muss durch technische und organisatorische Maßnahmen sichergestellt werden.

www.prozesstechnik-online.de

Suchwort: phpro0320vtu


Autor: Dr. Ruben Wälchli

MS&T Engineer,
VTU Engineering


Autor: Dr. Stefan Pauli

Senior Data Scientist,
VTU Engineering

Unsere Webinar-Empfehlung
Newsletter

Jetzt unseren Newsletter abonnieren

cav-Produktreport

Für Sie zusammengestellt

Webinare & Webcasts

Technisches Wissen aus erster Hand

Whitepaper

Hier finden Sie aktuelle Whitepaper

Top-Thema: Instandhaltung 4.0

Lösungen für Chemie, Pharma und Food

Pharma-Lexikon

Online Lexikon für Pharma-Technologie

phpro-Expertenmeinung

Pharma-Experten geben Auskunft

Prozesstechnik-Kalender

Alle Termine auf einen Blick


Industrie.de Infoservice
Vielen Dank für Ihre Bestellung!
Sie erhalten in Kürze eine Bestätigung per E-Mail.
Von Ihnen ausgesucht:
Weitere Informationen gewünscht?
Einfach neue Dokumente auswählen
und zuletzt Adresse eingeben.
Wie funktioniert der Industrie.de Infoservice?
Zur Hilfeseite »
Ihre Adresse:














Die Konradin Verlag Robert Kohlhammer GmbH erhebt, verarbeitet und nutzt die Daten, die der Nutzer bei der Registrierung zum Industrie.de Infoservice freiwillig zur Verfügung stellt, zum Zwecke der Erfüllung dieses Nutzungsverhältnisses. Der Nutzer erhält damit Zugang zu den Dokumenten des Industrie.de Infoservice.
AGB
datenschutz-online@konradin.de