Tag 1: OneLake, Lakehouse & Datenaufnahme
- Tiefer Einstieg in Microsoft Fabric & Umgebungseinrichtung
- Kurze Wiederholung der Fabric-Architektur und Navigation.
- Einrichtung der persönlichen Fabric-Entwicklungsumgebung für den Workshop.
- Hands-On Lab: Anlegen von Workspaces und Zuweisung von Kapazitäten.
- OneLake als zentraler Speicher
- Kennenlernen der Datenspeicherkonzepte: Delta Lake, Dateiformate, Shortcuts.
- Best Practices für die Organisation von Daten im OneLake.
- Hands-On Lab: Erstellen und Verwalten von OneLake-Shortcuts zu externen Quellen (z.B. AWS S3 oder Azure Blob Storage).
- Das Fabric Lakehouse: Entwicklung & Management
- Erstellung und Konfiguration von Lakehouse-Instanzen.
- Hands-On Lab: Datenaufnahme in das Lakehouse über verschiedene Methoden:
- Manuelles Hochladen von Dateien (CSV, Parquet).
- Nutzung von Data Pipelines zur automatisierten Ingestion aus externen Quellen (z.B. Blob Storage, SQL-Datenbank).
- Erstellung von Tabellen aus hochgeladenen Dateien (Managed und Unmanaged Tables).
- Abfragen von Lakehouse-Daten über den SQL Endpoint.
- Datenqualität und grundlegende Governance-Konzepte im Lakehouse.
Tag 2: Data Engineering & Data Warehousing
- Fortgeschrittene Datenverarbeitung mit Data Pipelines & Dataflows Gen2
- Hands-On Lab: Erstellung komplexer Data Pipelines:
- Transformationen innerhalb der Pipeline (Filter, Aggregationen, Lookups).
- Implementierung von If-Bedingungen und Schleifen.
- Fehlerbehandlung und Monitoring von Pipeline-Läufen.
- Hands-On Lab: Einsatz von Dataflows Gen2 für Self-Service-Datenvorbereitung und -transformation.
- Verbinden mit Datenquellen, Datenbereinigung und Transformation.
- Laden der Ergebnisse in das Lakehouse oder Data Warehouse.
- Spark Notebooks für Daten-Transformation & -Analyse
- Einführung in PySpark-Grundlagen für Data Engineering.
- Hands-On Lab: Nutzung von Notebooks zur:
- Detaillierten Datentransformation und -bereinigung.
- Datenanalyse und Feature Engineering.
- Schreiben von Daten in Delta-Tabellen im Lakehouse.
- Integration von Notebooks in Data Pipelines.
- Das Fabric Data Warehouse: Design & Implementierung
- Designprinzipien für ein modernes Data Warehouse in Fabric.
- Hands-On Lab: Erstellung eines Fabric Data Warehouses.
- Laden von Daten aus dem Lakehouse in das Data Warehouse.
- Abfragen mit T-SQL, Optimierung von Abfragen.
Tag 3: Data Science, Real-Time Analytics & Power BI Integration
- Grundlagen der Data Science Experience
- Überblick über die Data Science Tools in Fabric (z.B. Spark Notebooks für ML).
- Einführung in Machine Learning-Modellentwicklung und -Management (MLflow).
- Hands-On Lab (Einführung): Kurzes Beispiel zur Datenexploration und grundlegenden Modellerstellung in einem Notebook.
- Real-Time Analytics mit Eventstream & KQL-Datenbanken
- Eventstream: Erfassung und Verarbeitung von Echtzeitdatenströmen.
- KQL (Kusto Query Language) Datenbanken: Speicherung und Analyse von Streaming-Daten.
- Hands-On Lab: Aufbau eines einfachen Eventstreams und Speicherung von Daten in einer KQL-Datenbank. Erste Abfragen mit KQL.
- Power BI: Datenvisualisierung & Reporting
- Hands-On Lab: Erstellung komplexer Power BI Semantic Models auf Fabric-Daten (Lakehouse, Data Warehouse).
- Grundlagen von DAX für Kennzahlen und berechnete Spalten.
- Erstellung interaktiver Power BI Reports und Dashboards.
- Performance-Optimierung von Power BI Berichten und Datasets.
- Data Activator & End-to-End-Lösungen
- Kurzvorstellung von Data Activator zur automatisierten Reaktion auf Datenereignissen.
- Zusammenführung aller Fabric-Komponenten in einem End-to-End-Szenario.
- Einführung in Best Practices für Sicherheit, Governance und Bereitstellung (Deployment Pipelines) in Fabric.
- Fragen und Antworten, Ausblick.
Optional: Nutzung kundenindividueller Datensätze:
Nach vorheriger Absprache und Klärung der technischen sowie datenschutzrechtlichen Anforderungen bieten wir die Möglichkeit, eigene, anonymisierte oder Test-Datensätze deines Unternehmens für die Hands-On-Labs zu verwenden. Dies ermöglicht eine noch höhere Praxisrelevanz und einen direkten Bezug zu deinen spezifischen Herausforderungen. Bitte kontaktiere uns rechtzeitig vor dem Workshop, um diese Option zu prüfen.