
Modern Open Source Data Warehouse
Umfassende Einführung in moderne Data Warehouse Architekturen mit Open Source Technologien.
Kursbeschreibung
Dieser Kurs bietet eine umfassende Einführung in moderne Data Warehouse Architekturen sowie praktische Übungen zur Datenintegration, -analyse und -visualisierung mit Hilfe von Open Source Technologien. Sie lernen anhand praktischer Beispiele die wichtigsten Open Source Technologien wie ClickHouse, Trino, Airflow kennen.
Sie erhalten einen Überblick über die Einsatzmöglichkeiten in verschiedenen Daten Architekturen wie Data Warehouse, Data Lake und Data Mesh. Der Fokus liegt auf der praktischen Anwendung moderner Open Source Tools für die Verarbeitung und Analyse großer Datenmengen.
Durch hands-on Übungen erstellen Sie ein echtzeitfähiges Data Warehouse mit ClickHouse und Kafka, lernen den Data Lakehouse-Ansatz mit Apache Iceberg kennen und integrieren verschiedene Datenspeicher mit Trino für datenübergreifende Abfragen.
Dieser Kurs ist ideal für Data Engineers, Data Architects und Entwickler, die moderne Open Source Data Warehouse-Lösungen implementieren und verwalten möchten.
Individueller Workshop
Für Unternehmen mit bestehender Data Warehouse-Implementierung
Identifikation von Optimierungspotenzialen
Praxisnahe Beratung für Ihre Herausforderungen
Angepasst an Ihre Infrastruktur und Prozesse
Individuelle Terminvereinbarung möglich
Kursinhalt
Open Source Technologien im Fokus
Unser Training konzentriert sich auf die wichtigsten Open Source Data Warehouse-Technologien. Wir behandeln folgende Tools im Detail:
ClickHouse
Analytische Datenspeicherung
Trino
Datenübergreifende Abfragen
Apache Airflow
Workflow-Orchestrierung
Apache Superset
Visualisierung und Dashboards
dlt & dbt
Datenintegration und Transformation
Apache Kafka
Real-time Datenströme
Apache Iceberg
Data Lakehouse-Format
Wir stimmen vor dem Training ab, welche Open Source Tools für Ihre spezifischen Anwendungsfälle besonders relevant sind.
Das Wichtigste auf einen Blick
Das nehmen Sie mit
Verständnis moderner Data Warehouse-Architekturen
Praktische Erfahrung mit ClickHouse für Datenspeicherung
Beherrschung von Trino für datenübergreifende Abfragen
Datenintegration mit dlt und dbt
Visualisierung mit Apache Superset
Echtzeitfähiges Data Warehouse mit Kafka
Data Lakehouse-Ansatz und Apache Iceberg
Voraussetzungen
Grundlegende Kenntnisse im Umgang mit Datenbanken
Verständnis für grundlegende Konzepte der Datenarchitektur
Basiswissen in der Datenverarbeitung
SQL-Grundkenntnisse (von Vorteil, aber nicht zwingend erforderlich)
Trainingsumgebung
Praktische Übungen mit Open Source Data Warehouse-Stack
Umfangreiche Trainingsunterlagen und Code-Beispiele
Hands-on mit ClickHouse, Trino, Airflow und Superset
Organisatorisches
Täglich von 9:00 bis 18:00 Uhr, inklusive Pausen
Schulungssprache, Materialien in Deutsch und Englisch
Mittagessen im Linuxhotel inklusive
Ihr Trainer

Uli Zellbeck
Uli ist erfahrener Trainer und verfügt über 25 Jahre Erfahrung in der IT-Branche. Als Senior Data Architect bringt er ein tiefgreifendes Know-how im Aufbau von Datenarchitekturen mit. Seine Expertise erstreckt sich über verschiedene Bereiche der Informationstechnologie, und er hat sich insbesondere auf die Entwicklung fortschrittlicher Datenlösungen on Premise und in der Cloud spezialisiert.
Die Teilnehmer können von seinem reichen Erfahrungsschatz profitieren, während er praxisnahe Einblicke in den Aufbau von Datenarchitekturen vermittelt. In den letzten Jahren hat er mehrere große Open Source Data Warehouse-Projekte implementiert und betreut, darunter:
- Implementation von ClickHouse-Clustern für analytische Workloads
- Aufbau von Data Lakehouse-Architekturen mit Apache Iceberg
- Integration verschiedener Datenspeicher mit Trino Query Engine
- Entwicklung von ETL/ELT-Pipelines mit dlt und dbt
- Real-time Data Processing mit Apache Kafka und ClickHouse
- Visualisierung und Dashboarding mit Apache Superset
Seine praktische Expertise umfasst das gesamte Spektrum moderner Data Warehouse-Technologien - von der Architekturplanung über die Tool-Auswahl bis hin zur Performance-Optimierung und dem Production-Deployment.
Verfügbare Termine
In-House Training
Umfassende Einführung in moderne Data Warehouse Architekturen mit Open Source Technologien.
Wir bieten dieses Training als In-House Schulung an, angepasst an Ihre Bedürfnisse. Termine und Konditionen sprechen wir gerne individuell mit Ihnen ab.
Unsere Partner
Öffentliche Termine
1.1.2025
Buche das Training direkt im Terminal
Weitere passende Trainings
Vertiefen Sie Ihr Wissen mit unseren praxisorientierten Data Engineering und Data Warehouse-Schulungen
Datenmodellierung im Data Warehouse
Datenmodellierung im Data Warehouse: Lernen Sie die Grundlagen oder entscheiden Sie sich für die Experten Schulungen
- Grundlagen des dimensionalen Modellierens verstehen
- Star Schema und Snowflake Schema entwerfen
- Fact Tables und Dimension Tables modellieren
dbt
Praxisnahes dbt-Training: Beherrschen Sie SQL-Transformationen, Testing und CI/CD für nachhaltige Analytics-Engineering-Prozesse.
- dbt Projekte aufsetzen und strukturieren
- Datenmodelle mit SQL und dbt entwickeln
- Tests für Datenqualität implementieren
Apache Airflow
Apache Airflow Training: Lernen Sie die führende Open-Source-Plattform für Data Pipeline Management und Workflow-Orchestrierung.
- Apache Airflow installieren und konfigurieren
- DAGs (Directed Acyclic Graphs) effektiv erstellen
- Operatoren, Sensoren und Hooks einsetzen