cta

Erste Schritte

Cloud

Sind Sie bereit?

Sandbox herunterladen

Wie können wir Ihnen helfen?

SchließenSchaltfläche „Schließen“
cta

Big Data Analytics for the Pharmaceutical Industry
and Clinical Trials

Cloud Sind Sie bereit?

Sandbox herunterladen

HDP für die Ertragsoptimierung bei der Herstellung von Phamazeutika

Merck & Co., Inc. hat die Hortonworks Data Platform (HDP™) implementiert, um drei Herausforderungen beim Umgang mit den eigenen Daten zu meistern und schließlich den Ertrag beim Herstellungsprozess von Arzneimitteln zu optimieren. Zuerst mussten jahrelang erfasste Daten aus unterschiedlichen isolierten Datenspeichern im Unternehmen kombiniert werden. Außerdem suchte Merck nach einer Möglichkeit, die Anzahl an erfassten Daten zu steigern und diese Daten länger aufzubewahren. Zu guter Letzt wollte das Team bei Merck neue Hypothesen „virtuell“ zu deutlich niedrigeren Kosten als mit echten Materialien und Geräten testen. Mit HDP konnte Merck diese Herausforderungen angehen und bewältigen. So schaffte es das Unternehmen, Daten aus der Impfstoffherstellung aus 10 Jahren miteinander zu kombinieren und 5,5 Millionen Chargen-übergreifende Vergleiche aus über 10 Milliarden Einträgen durchzuführen. Das Resultat: Eine Ertragsoptimierung, die allein bei diesem einen Impfstoff zu einer Gewinnmaximierung von 10 Millionen US-Dollar führte.

Das volle Potenzial von Pharmadaten

Die Integration von Big Data, interne und externe Kollaborationen, portfoliogesteuerte Entscheidungsprozesse, effizientere klinische Studien, schnellere Markteinführungszeiten, optimierte Erträge, mehr Sicherheit – das sind nur einige der enormen Vorteile für Pharmaunternehmen auf der ganzen Welt, wenn sie das volle Potenzial ihrer Daten ausschöpfen.

Anwendungsfälle

Merck optimiert die Erträge bei der Impfstoffherstellung: Der Weg zum „goldenen Batch“

Merck optimiert seine Impfstofferträge durch die Analyse von Herstellungsdaten, um die wichtigsten Prognosevariablen für eine sogenannte „goldene Charge“ zu erhalten. Die Führungskräfte von Merck haben lange Zeit auf die schlanke Produktion gesetzt, um das Volumen zu steigern und die Kosten zu senken. Allerdings wurde es zunehmend schwerer, Möglichkeiten zur Steigerung der Erträge zu finden. Daher beschloss das Unternehmen, sich Open Enterprise Hadoop näher anzuschauen, um neue Analysen zu erhalten, mit denen sich Kosten weiter reduzieren und Erträge optimieren lassen. Merck entschied sich für Hortonworks als Lösung für die Datenidentifizierung aus 255 Chargen eines Impfstoffes aus den letzten 10 Jahren. Diese Daten verteilten sich auf 16 Wartungs- und Building-Management-Systeme und umfassten auch genaue Sensordaten zu den Kalibrierungseinstellungen, dem Luftdruck, der Temperatur und der Feuchtigkeit. Nach der Bündelung all dieser Daten auf der Hortonworks Data Platform und der Verarbeitung von 15 Milliarden Berechnungen erhielt Merck neue Antworten auf Fragen, die dem Unternehmen bereits seit einem Jahrzehnt Kopfzerbrechen bereiteten. Unter Hunderten Variablen konnte das Merck-Team diejenigen ausmachen, die für einen optimalen Ertrag sorgen. Das Unternehmen übernahm die neuen Erkenntnisse gleich für die anderen Impfstoffe. Das Ziel: Die Produktion hochwertiger Medikamente zum niedrigstmöglichen Preis. Schauen Sie sich das Interview von Doug Henschen (InformationWeek) mit George Llado von Merck an.


Ausschuss-Minimierung bei der Herstellung von Medikamenten

Ein Kunde von Hortonworks aus der Pharmabranche nutzt HDP für einen einheitlichen Einblick in seine Lieferkette und den selbst erklärten „Krieg gegen den Ausschuss“. Das Operations-Team des Unternehmens addierte die Inhaltsstoffe auf, die für die Herstellung der Medikamente notwendig sind, und verglich das Ergebnis mit dem tatsächlich physikalisch ausgelieferten Endprodukt. Bei dieser Berechnung ergab sich eine große Differenz, die den Anstoß gab für den „Krieg gegen den Ausschuss“. Dank HDP konnte das Unternehmen ermitteln, an welchen Stellen die wertvollen Ressourcen verschwendet werden. Sobald es bei einem Schritt zu einer hohen Menge an Abfall kommt, benachrichtigen Echtzeit-Warnmeldungen in HDP das Team, wenn das Risiko besteht, dass vorab definierte Schwellenwerte überschritten werden.


Translationsforschung: Von wissenschaftlichen Studien zu individualisierter Medizin

Die Translationsforschung hat das Ziel, die Ergebnisse aus Laborforschungen interdisziplinär im klinischen Umfeld am Patienten anzuwenden. Hadoop ermöglicht es Forschern, Ärzten und Analysten, Erkenntnisse aus Translationsdaten für die Durchführung von evidenzbasierten medizinischen Programmen zu nutzen. Die Datenquellen für die Translationsforschung sind sehr komplex und stehen normalerweise in isolierten Datenspeichern zur Verfügung. Dadurch ist es für Wissenschaftler mitunter schwer, einen integrierten, ganzheitlichen Einblick in ihre Daten zu erhalten. Andere Schwierigkeiten lassen sich auf die Datenlatenzen zurückführen, d. h. die Verzögerung beim Einpflegen der Daten in traditionelle Datenspeicher. Auch die Verarbeitung unstrukturierter und semi-strukturierter Datenarten und fehlende kollaborative Analysen zwischen translationalen und klinischen Entwicklungsgruppen sind für alle Beteiligten zusätzlich kompliziert. Forscher nutzen Open Enterprise Hadoop als kosteneffektive, zuverlässige Plattform für die Durchführung fortschrittlicher Analytics integrierter translationaler Daten. HDP bietet translationalen und klinischen Gruppen die Möglichkeit, wichtige Daten aus folgenden Quellen miteinander zu kombinieren: Omics (Genomik, Proteomik, Transkriptionsprofilierung usw.), vorklinische Daten, elektronische Labor-Notebooks, klinische Data Warehouses, Gewebeabbildungsdaten, medizinische Geräte und Sensoren, Datenquellen (wie Excel und SAS) und medizinische Literatur. Mithilfe von Hadoop erhalten Analysten einen ganzheitlichen Einblick, wodurch sich biologische Reaktionen und molekulare Mechanismen von Wirkstoffzusammensetzungen oder Medikamenten besser nachvollziehen lassen. Sie können außerdem Biomarker für den Einsatz in Forschung & Entwicklung und bei klinischen Studien erkennen. Zu guter Letzt wird sichergestellt, dass alle Daten in ihrem nativen Format für die Ewigkeit gespeichert werden, um die Analyse durch verschiedenste Anwendungen auch in Zukunft zu ermöglichen.


Die nächste Generation der Sequenzierung

IT-Systeme können NGS-Daten („Next Generation Sequencing“, d. h. die nächste Generation der DNA-Sequenzierungstechnologie) nicht wirtschaftlich speichern und verarbeiten. Die primären Sequenzierungsergebnisse liegen beispielsweise in großen Bildformaten vor und es ist einfach zu teuer, sie für längere Zeit zu speichern. Punktlösungen eignen sich ebenfalls nicht, da sie nicht flexibel genug sind, um mit den sich ändernden analytischen Verfahren mitzuhalten. Außerdem sind diese Lösungen häufig in Bezug auf Anpassung und Wartung viel zu teuer. Open Enterprise Hadoop meistert diese Herausforderungen und hilft Datenwissenschaftlern und Forschern dabei, NGS-Daten umfassend auszuwerten und die Rohergebnisse auf einer zuverlässigen und kosteneffektiven Plattform aufzubewahren. NGS-Wissenschaftler entdecken gerade die Vorteile der Verarbeitung und Analyse in großem Umfang, so wie es mit HDP-Lösungen wie Apache Spark möglich ist. Forscher aus der Pharmabranche nutzen Hadoop, um unterschiedliche Datenarten aus externen Quellen für genetische Daten wie TCGA, GENBank und EMBL einzupflegen. Ein weiterer Vorteil von HDP für NGS-Daten: Forscher haben Zugriff auf bahnbrechende Bioinformatik-Tools, die speziell für Hadoop entwickelt wurden. Damit sind die Analyse unterschiedlicher NGS-Datenformate, die Sortierung der ausgelesenen Ergebnisse und die Zusammenfassung von Ergebnissen möglich. NGS erreicht durch die folgenden Funktionen eine ganz neue Dimension: Batch-Verarbeitung großer NGS-Datensätze, Integration von internen mit öffentlich verfügbaren externen Sequenzdaten, permanente Datenspeicherung großer Bilddateien in ihrem nativen Format und erhebliche Kosteneinsparungen bei der Datenverarbeitung und -speicherung.

HDP nutzt echte Daten für echte Belege

Real-World-Evidence (RWE) verspricht Messbarkeit von Verbesserungen bei gesundheitlichen Resultaten und Behandlungen, aber diese Daten müssen in großem Umfang verfügbar sein. Die hohen Kosten für die Datenspeicherung und -verarbeitung, Herausforderungen bei der Zusammenfassung von strukturierten und unstrukturierten Daten und die übermäßige Abhängigkeit von Informatikressourcen für analysefertige Daten haben die Entwicklung von RWE ausgebremst. Mit Hadoop können RWE-Gruppen wichtige Datenquellen wie Beschwerden, Verschreibungen, elektronische Krankenakten, ausgetauschte Gesundheitsdaten und Social-Media-Informationen miteinander kombinieren, um einen kompletten Einblick in RWE zu erlangen. Analysten erhalten echte Statistiken und können fortgeschrittene analytische Ergebnisse über kosteneffektive und ihnen bekannte Tools wie SAS®, R®, TIBCO™ Spotfire® oder Tableau® bereitstellen. Die folgenden Vorteile erwarten Sie bei RWE über Hadoop: Optimale Nutzung der Gesundheitsressourcen aus verschiedenen Patientengruppen, ganzheitlicher Einblick in Kosten-/Qualitätskonflikte, Analyse von Behandlungspfaden, Studien zu wettbewerbsfähigen Preisen, parallele Medikamentenanalyse, klinische Studien anhand der geographischen & demographischen Verbreitung einer Krankheit, Priorisierung von bestimmten Medikamentenempfängern, Metriken für leistungsbasierte Preisverträge, Studien zur Arzneimitteladhärenz und permanente Datenspeicherung für Konformitätsprüfungen

Dauerhafter Zugriff auf Rohdaten aus früheren Studien

Forscher an Universitäten handeln nach dem Prinzip „Publish or Perish“, d. h. Ergebnisse werden entweder veröffentlicht oder sie verschwinden irgendwo ungenutzt. Pharmawissenschaftler führen Experimente zu neuen Zusammensetzungen durch. Obwohl diese Aktivitäten zu umfangreichen öffentlichen und patentierten Forschungsergebnissen führen, ist es zu teuer, diese umfassenden durch Studien gestützten Daten so zu speichern, dass alle Parteien darauf zugreifen können. Hier kommt die kosteneffektive Lösung von Hadoop zur Datenspeicherung und -verarbeitung ins Spiel. Die Hortonworks Data Platform ermöglicht den dauerhaften Betrieb einer Speicherplattform, auf der wertvolle Forschungsdaten aufbewahrt werden können. Diese stehen dann langfristig für Abfragen, Validierungen und die erneute Nutzung zur Verfügung. Forscher können vorhandene Daten für neue Analysen nutzen oder diese mit neuen Daten kombinieren und daraus wichtige Erkenntnisse ziehen. Durch den Zugriff auf eine beispiellose Menge an Daten in ihrem nativen Format können Wissenschaftler effektiver Suchanfragen und pharmazeutische Studien durchführen. Außerdem erhalten sie einen tieferen Einblick und können ihre Ergebnisse mit mehr Daten untermauern.