Das Quality-by-Design (QbD)-Konzept hat sich für die Entwicklung neuer Arzneimittel und ihrer Herstellprozesse etabliert. Eine erfolgreiche Umsetzung von QbD erfordert jedoch den Aufbau von fundiertem Verständnis des Produkts und seines Lebenszyklus (Herstellung, Lagerung, Verwendung, etc.). Konkret gilt es, diejenigen Eigenschaften zu ermitteln, die aus Sicht des Patienten für die Qualität des Arzneimittels entscheidend sind, d. h. seine klinische Wirkung beeinflussen. Diese Eigenschaften werden dann als kritische Qualitätsattribute (critical quality attributes, CQAs) klassifiziert und akzeptable Wertebereiche für ihre Ausprägung definiert. Ein Beispiel für ein CQA kann die Konzentration einer Verunreinigung sein, die als Nebenreaktion bei der Wirkstoffsynthese entsteht. Im Kontext von QbD muss klar sein, auf welche Weise die CQAs mit den Variablen des Herstellprozesses (Rohmaterial-/Intermediateigenschaften und Prozessparameter) zusammenhängen. Nur so kann die Produktqualität zu jedem Zeitpunkt sichergestellt werden.
Die richtigen Methoden anwenden
Im Zusammenhang mit QbD wird oft auch der von der FDA geprägte Begriff Process Analytical Technology (PAT) verwendet. In ihrem Leitfaden zu PAT hat die FDA bereits 2004 explizit die Verwendung von multivariater Datenanalyse und Methoden zur Mustererkennung in großen Datensätzen erwähnt. Dies soll dazu dienen, quantitative Information über Zusammenhänge zwischen CQAs und Prozessvariablen in Form von mathematischen Beziehungen und Modellen zu generieren. Diese Information kann dann z. B. dazu genutzt werden, auf Veränderungen in den Prozessvariablen passend zu reagieren, um trotzdem konstante Produktqualität zu erreichen.
Die fortschreitenden Entwicklungen in den Bereichen Messtechnik und IT haben dazu geführt, dass die Menge an verfügbaren Daten aus Forschung, Entwicklung, Produktion, etc. rasant zunimmt. Effiziente Zusammenführung und Auswertung dieser Daten kann es ermöglichen, für mehr Prozessparameter und Materialeigenschaften deren Einfluss auf die Qualität des fertigen Arzneimittels zu bestimmen. Moderne Algorithmen aus dem Bereich des maschinellen Lernens sind in der Lage, Muster in großen Datensätzen zu erkennen und komplexe Zusammenhänge zwischen Variablen zu quantifizieren. So können systematische Vergleiche verschiedener Produkte und Herstellprozesse angestellt und die sichere Entwicklung und Herstellung von Arzneimitteln beschleunigt werden.
Data Analytics in der Praxis
Doch wie nützlich ist die Datenanalyse für die Sicherstellung der Arzneimittelqualität? Wie sieht der Nutzen in der Praxis aus? In einer Produktionsanlage für ein therapeutisches Protein wies beispielsweise einer von drei baugleichen Bioreaktoren konstant eine schlechtere Leistung in Bezug auf das Zellwachstum und die Produktionsausbeute auf, als die beiden anderen. Zur Ursachenforschung wurden die Daten aus dem Prozessleitsystem für einen längeren Produktionszeitraum von VTU-Mitarbeitern exportiert und mittels Machine Learning analysiert. Dabei zeigte sich, dass die Temperatur des Substrats, das während der Fermentation zugeführt wird, einen hohen Einfluss auf das Ergebnis hat. Auf den ersten Blick hat dieses Ergebnis überrascht, da man davon ausgegangen ist, dass dieser Parameter im Prozess gut kontrollierbar ist. Daraufhin prüften die Betriebsingenieure die Substratzuleitung des problembehafteten Bioreaktors und stellten fest, dass sie eine schadhafte Isolation aufwies. Durch die Reparatur der Isolation konnte das Problem behoben werden. Eine vertiefte Analyse von Prozessdaten hilft somit effektiv, die Suche nach Fehlerursachen bei Anlagen zu beschleunigen. Der zeitliche Aufwand bei diesem Projekt war mit
ca. 80 Arbeitsstunden relativ gering im Vergleich zur herkömmlichen Fehlersuche.
Die Vergleichbarkeit des Herstellprozesses auf verschiedenen Skalen und Anlagen ist ein zentraler Aspekt über den gesamten Lebenszyklus eines Arzneimittels, d. h. von der prä-klinischen (Verfahrensentwicklung auf Labor- und Pilotmaßstab) über die klinische Entwicklung (Phase I, Phase II, etc.) bis hin zu den verschiedenen Phasen der kommerziellen Produktion (Technologietransfer zwischen Anlagen, Prozessverbesserungen, etc.). Im Zuge dessen werden Unmengen von Daten (Laboranalysen, Prozessparameter, etc.) aufgezeichnet. Algorithmen aus dem Machine Learning können dazu eingesetzt werden, die hochdimensionale Information dieser Datenpunkte zu erfassen und auf wenige aussagekräftige Dimensionen zu reduzieren. Dies ermöglicht dann die automatische Gruppierung der Datenpunkte und die Auswertung, welche Prozessparameter für gefundene Unterschiede zwischen Produktchargen verantwortlich sind. Gegebenenfalls müssen diese angepasst werden, um die Übereinstimmung zwischen Chargen von verschiedenen Anlagen etc. zu erhöhen.
CQAs in der Produktion steuern
Ein wichtiger Schritt bei der Entwicklung eines Herstellprozesses ist die Identifikation von Prozessparametern, die einen signifikanten Einfluss auf die Produktqualität und auf die Leistungsfähigkeit des Prozesses haben. Dies wird routinemäßig auf Labormaßstab im Rahmen von Prozesscharakterisierungsstudien durchgeführt. Solche Studien können aber nicht sämtliche Parameter untersuchen. Außerdem kann es skalenbedingte Unterschiede zwischen Laborversuchen und Produktionschargen geben, die schwer zu kompensieren sind. Die eingehende Analyse von Produktionsdaten mittels Machine Learning kann zusätzliche Prozessparameter und Materialeigenschaften erkennen, die einen wichtigen Effekt auf das Ergebnis haben können und somit einer genaueren Kontrolle für die Sicherstellung von Qualität und Leistung bedürfen.
Ein Aspekt in Bezug auf das Thema PAT ist die Bestimmung und Überwachung von chemischen und biologischen Eigenschaften von Rohmaterialien, Intermediaten und fertigem Produkt in Echtzeit während des Herstellungsprozesses. Dazu werden in erster Linie spektroskopische Methoden eingesetzt, d. h. NIR, Raman, NMR, etc., da die zugehörigen Sensoren relativ leicht in Anlagen integriert werden und Messungen in kurzer Zeit durchführen können. Die aufgenommenen Spektren sind dabei eine komplexe Überlagerung der Spektren der vorhandenen Substanzen und man benötigt ausgeklügelte mathematische Modelle, um die gesuchte Information daraus zu extrahieren. Deshalb kommen dort ebenfalls Algorithmen aus der multivariaten Datenanalyse und aus dem Machine Learning zum Einsatz, um möglichst genaue Vorhersagen zu treffen. Die so gewonnene Echtzeitinformation könnte man im weitreichendsten Fall in Kombination mit geeigneten Prozessmodellen dazu nutzen, CQAs von Arzneimitteln während der Produktion direkt zu steuern.
Voraussetzung ist höchste Qualität
Um aussagekräftige Analysen durchzuführen, müssen einige Voraussetzungen erfüllt sein. Ganz allgemein müssen alle relevanten Daten in ausreichender Qualität vorhanden sein. Das beinhaltet neben Werten für die Prozessparameter auch sekundäre Information wie Änderungen an der Herstellvorschrift, Änderungen an der Anlage, etc. Des Weiteren braucht es Metainformation zu den Daten, wie Datum und Uhrzeit, Sensortag, Chargennummer etc., ohne die die Daten in keinen Kontext gesetzt werden können. Ein wichtiger Aspekt ist auch das Management und die Anbindung von Daten aus verschiedenen Quellen (Entwicklungs-labors, Pilotanalagen, Prozessanalyselabors, Qualitätssicherungs- und Qualitätskontrolllabors, Produktionsanlagen, etc.). Implementierung eines funktionierenden Informationsmanagementsystems ist deshalb unabdingbar. Zusätzlich hat das Thema der Datenintegrität in letzter Zeit im GxP-regulierten Umfeld vermehrte Aufmerksamkeit bekommen. Nur integre Daten dürfen für Analysen verwendet werden und die Integrität muss durch technische und organisatorische Maßnahmen sichergestellt werden.
Suchwort: phpro0320vtu