arrow checkmark cookie envelope kununu linkedin phone pin Artboard share star star--outline thumbup triangle-down xing

Forschung und Entwicklung: Innovationserfolg messbar machen

In einem global führenden Unternehmen der Konsumgüter- und Klebstoffindustrie werden über Jahre hinweg Daten aus dem Bereich Forschung & Entwicklung (F&E) gesammelt. Für aktuelle Entscheidungsprozesse wird jedoch ausschließlich der letztgültige Datenstand genutzt. Das verhindert die Beantwortung wichtiger Fragen zur Optimierung des Innovationszyklus:

  • Gibt es wiederkehrende Verzugsgründe in F&E-Projekten?
  • Wie kann man die Time-to-Market optimieren?
  • Existieren replizierbare Indikatoren für Qualitätsprobleme?
  • Ist es möglich, Parameter zu identifizieren, die regelmäßig zu Budgetabweichen führen?

Zu der technischen Herausforderung, dass viele Daten in unterschiedlichen Systemen lagern, gesellt sich die fachliche: Welche Kennzahl bedeutet in welcher Abteilung was? Handelt es sich z.B. um einen Brutto- oder Nettowert? Und was genau bedeutet die Zuweisung eines bestimmten Projektstatus für wen nun genau? 

Gemeinsam mit rheindata gelingt unserem Kunden die Bewältigung dieser Herausforderungen und der Aufbau einer integrierten, cloudbasierten F&E-Datenplattform, die den gesamten Innovationsprozess abbildet – von der Ideenfindung über die Produktentwicklung bis zur Markteinführung. Sie wird mit modernsten Technologien befüllt, historisiert und ausgewertet und ermöglicht die Beantwortung der o.g. Fragen. Darüber hinaus sind alle technologischen Prozesse, auch im Frontend, streng nach DevOps-Standards entwickelt, sodass auch die Wartbarkeit und Weiterentwicklung der Lösung problemlos möglich ist.

BRANCHE

  • Konsumgüter und Klebstoffe

 

TECHNOLOGIEN

  • Azure Data Lake Storage (ADLS)
  • Azure Databricks (ELT)
  • Azure DevOps
  • Microsoft Power BI

 

HERAUSFORDERUNG

  • Vereinheitlichen von Definitionen
  • Zusammenführung von Daten
  • Historisierung
  • Visualisierung

 

ERGEBNIS/MEHRWERT FÜR DEN KUNDEN

  • Einheitliche Sicht auf Daten aus verschiedenen Quellen
  • Analysierbarkeit der Ursachen von Fehlern und Problemen
  • Erhöhung der Prognosegenauigkeit zu Projekterfolgen und -risiken

Struktur, Skalierbarkeit und Transparenz mit Databricks im Backend und Power BI im Frontend

Um diese strukturellen Probleme zu lösen, wurde eine durchgängige, skalierbare Datenplattform entwickelt – mit Azure Databricks als technologischem Herzstück. Statt auf viele Tools zu setzen, wurden Datenaufnahme, Transformation und Bereitstellung in einer zentralen Architektur vereint:

  1. Datenaufnahme in Azure Data Lake Storage (ADLS)

    Rohdaten aus verschiedenen Quellsystemen (ERP, SAP, Excel-Files, etc.) werden extrahiert. Die Speicherung erfolgt im Azure Data Lake nach dem Prinzip der täglichen Partitionierung, was eine historische Nachvollziehbarkeit auch für spätere Arbeitsschritte garantiert. Die strukturierte Ablage bildet die Grundlage für deskriptive und retrospektive Analysen.

  2. Verarbeitung in Azure Databricks (ELT)

    Databricks wird als zentrale Verarbeitungs- und Transformationsengine genutzt. Die Layerstruktur stellt eine erweiterte Medallion-Architekur dar und umfasst fünf Stufen:

    • Raw: Unverarbeitete, direkt aus der Quelle stammende Daten
    • Staging: Erste Bereinigung und Validierung der Datenstruktur
    • Enriched: Kontextuelle Anreicherung, z. B. durch Masterdaten
    • Curated: Standardisierte, qualitativ geprüfte Daten
    • Serving: Bereitstellung für Reporting, Dashboards und APIs
  3. Deployment & Governance mit Azure DevOps

    Die Entwicklungszyklen verlaufen entlang klassischer Umgebungen (Development, Testing, Production). Deployment-Prozesse der einzelnen Umgebungen sind vollständig automatisiert mittels YAML-basierten CI/CD-Pipelines. Git sorgt für transparente Codeversionierung und parallele Entwicklung im Team sowohl im Backend- als auch auf Frontendebene. 

  4. Visualisierung mit Power BI

    Die finale Schnittstelle für Fachbereiche bildet Power BI. Dank eines zentralen Datenmodells („Single Point of Truth“) sind alle Berichte konsistent und aktuell, Kennzahlen und KPIs unterscheiden sich nicht mehr, je nachdem wer den Bericht entwickelt oder angepasst hat. Die Dashboards sind modular aufgebaut und bieten sowohl Übersichten für das Management als auch Detailanalysen für operative Teams. Auch die Entwicklung der Reports erfolgt mit sauberer Trennung zwischen Entwicklungs-, Test- und Produktivumgebung. Der Zugriff auf die Daten erfolgt rollenbasiert, sodass jeder nur das sehen kann, wozu er berechtigt ist.

Der Effekt: Aus Datenfragmenten wird ein Innovationskompass

Die Auswirkungen der neuen Plattform sind unmittelbar spürbar:

  • Die Datenqualität ist deutlich gestiegen, da Redundanzen eliminiert und alle Berichte auf einer zentralen, einheitlichen Datenquelle aufsetzen.
  • Historische Vergleiche und Trendanalysen, die früher kaum möglich waren, werden zum integralen Bestandteil der Steuerung.
  • Power BI-Reports laufen stabiler, schneller und lassen sich flexibel auf neue Anforderungen anpassen.
  • Entwicklungs- und Rolloutzeiten für neue KPIs oder Berichte reduzieren sich erheblich – weil saubere Umgebungen und Versionskontrollen die Prozesse vereinfachen.

Ausblick: Von Rückblick zu Vorausschau

Heute ist die Plattform mehr als ein Reporting-Werkzeug. Sie ist eine strategische Grundlage für datenbasierte Steuerung – und Ausgangspunkt für den nächsten Entwicklungsschritt im Innovationsprozess: Machine-Learning-Modelle auf Basis der historisierten Daten könnten dabei einen weiteren Mehrwert in der täglichen Arbeit liefern. Sie sollen nicht nur zeigen, was war, sondern helfen vorherzusehen, was wahrscheinlich passieren wird:

  • Wo entstehen Engpässe im Projektverlauf?
  • Welche Projektkonstellationen sind besonders risikobehaftet?
  • Wie entwickelt sich das gesamte Innovationsportfolio bei unterschiedlichen Marktszenarien?

Die Historie der gesammelten Daten erwies sich als Goldgrube für strategische Erkenntnisse. Was früher als Altdaten galt, wurde zur Grundlage für die Reports im Tagesgeschäft. Gleichzeitig zeigte sich, dass Standardisierung und Governance essenziell für nachhaltige Skalierung sind. Die Plattform ist heute so konzipiert, dass sie künftig auch um KI-Module und automatisierte Handlungsempfehlungen erweitert werden kann – der nächste logische Schritt in Richtung datengestützter Forschung. Mit dieser Entwicklung wird klar: Datenarchitektur ist keine IT-Frage. Sie ist eine Managemententscheidung – mit unmittelbarem Einfluss auf Innovationsfähigkeit, Effizienz und Zukunftssicherheit.

Lukas Business Intelligence

Noch Fragen?

Telefonisch erreichen Sie uns unter (0221) 2220 2736, per E-Mail unter mail_us@rheindata.com.