
Modern Data Warehouse
Lernen Sie, eine moderne Data Warehouse Architektur mit Snowflake und dbt aufzubauen
Kursbeschreibung
Dieser zweitägige Kurs bietet eine umfassende Einführung in moderne Data Warehouse Architekturen mit Fokus auf Snowflake und dbt. Der Kurs richtet sich an Data Engineers und Architekten, die ihre Datenplattform modernisieren möchten.
An Tag 1 lernen Sie die Grundlagen von Cloud Data Warehousing mit Snowflake, die Einrichtung der Umgebung und erste dbt-Transformationen. Sie entwickeln praktische Fähigkeiten durch Hands-on Übungen mit einem Use Case ihrer Wahl.
An Tag 2 vertiefen wir das Wissen mit fortgeschrittenen Snowflake-Konzepten wie Micro-Partitionierung und Time Traveling sowie komplexeren dbt-Features wie inkrementelle Modelle und Snapshots. Durch Tests und Best Practices erhalten Sie das nötige Rüstzeug, um Ihre eigene moderne Datenplattform aufzubauen.
Individueller Workshop
Für Unternehmen mit bestehender Data Warehouse-Implementierung
Identifikation von Optimierungspotenzialen
Praxisnahe Beratung für Ihre Herausforderungen
Angepasst an Ihre Infrastruktur und Prozesse
Individuelle Terminvereinbarung möglich
Kursinhalt
Das Wichtigste auf einen Blick
Das nehmen Sie mit
Fundiertes Verständnis moderner Data Warehouse Architekturen
Praktische Erfahrung mit Snowflake und dbt
Bewährte Methoden für die Implementierung skalierbarer Datenlösungen
Ein fertiges dbt-Projekt mit Modellen, Tests und Dokumentation
Voraussetzungen
Grundkenntnisse in SQL und Datenmodellierung
Basis-Verständnis von Cloud Computing
Warum moderne Data Warehouse Architekturen?
Skalierbarkeit
Elastische Ressourcen, die mit Ihren Anforderungen mitwachsen - ohne Kapazitätsplanung oder Überversorgung.
Kosteneffizienz
Pay-as-you-go Modelle, die sich an Ihre tatsächliche Nutzung anpassen und Ressourcen bei Bedarf skalieren.
Agilität
Förderung von DevOps-Praktiken und Infrastructure-as-Code für schnellere Bereitstellung und Iteration.
Ihr Trainer

Uli Zellbeck
Uli ist ein erfahrener Data Architect und Trainer mit über 25 Jahren Erfahrung in der Entwicklung von Datenplattformen. Seine Expertise umfasst moderne Data Warehouse Architekturen, Analytics Engineering und Cloud-Technologien.
Die Teilnehmer profitieren von seiner umfangreichen praktischen Erfahrung mit modernen Data Warehouse Technologien in verschiedenen Unternehmenskontexten. In den letzten Jahren hat er mehrere große Data-Warehouse-Projekte implementiert und betreut, darunter:
- Entwicklung von Enterprise Data Platforms mit Snowflake als zentraler Warehouse-Komponente
- Implementation von Self-Service Analytics Capabilities basierend auf dbt
- Integration verschiedener Cloud-Dienste in moderne Data Warehouse Architekturen
- Aufbau von Data Mesh Architekturen mit Snowflake und dbt
- Entwicklung von Custom Packages und Erweiterungen für dbt
Seine praktische Expertise umfasst das gesamte Spektrum moderner Data Warehouse Architekturen - von der Konzeption über die Modellierung bis hin zur Produktivstellung und dem Monitoring komplexer Datenpipelines.
Verfügbare Termine
In-House Training
Umfassendes Training zu zukunftsfähigen DWH-Architekturen in der Cloud mit dbt, Snowflake und Best Practices für Analytics.
Wir bieten dieses Training als In-House Schulung an, angepasst an Ihre Bedürfnisse. Termine und Konditionen sprechen wir gerne individuell mit Ihnen ab.
Öffentliche Termine
Öffentliche Termine in Planung
Wir planen derzeit öffentliche Termine für dieses Training in Zusammenarbeit mit unseren Partnern.
Buche das Training direkt im Terminal
Weitere passende Trainings
Vertiefen Sie Ihr Wissen mit unseren praxisorientierten Schulungen
Snowflake
Umfassendes Snowflake-Training für Cloud Data Warehousing: Von Grundlagen bis zu fortgeschrittenen Konzepten für maximale Dateneffizienz.
- Snowflake-Architektur verstehen und implementieren
- Effizient mit Time Travel und Zero-Copy Cloning arbeiten
- SQL für Snowflake optimieren
dbt
Praxisnahes dbt-Training: Beherrschen Sie SQL-Transformationen, Testing und CI/CD für nachhaltige Analytics-Engineering-Prozesse.
- dbt Projekte aufsetzen und strukturieren
- Datenmodelle mit SQL und dbt entwickeln
- Tests für Datenqualität implementieren
Apache Airflow
Apache Airflow Training: Lernen Sie die führende Open-Source-Plattform für Data Pipeline Management und Workflow-Orchestrierung.
- Apache Airflow installieren und konfigurieren
- DAGs (Directed Acyclic Graphs) effektiv erstellen
- Operatoren, Sensoren und Hooks einsetzen