Hintergrundbild

Modern Open Source Data Warehouse

Umfassende Einführung in moderne Data Warehouse Architekturen mit Open Source Technologien.

Dauer
3 Tage
Level
Fortgeschritten
Ort
Vor Ort, Linuxhotel Essen
Nächster Termin
1. Januar 2025

Kursbeschreibung

Dieser Kurs bietet eine umfassende Einführung in moderne Data Warehouse Architekturen sowie praktische Übungen zur Datenintegration, -analyse und -visualisierung mit Hilfe von Open Source Technologien. Sie lernen anhand praktischer Beispiele die wichtigsten Open Source Technologien wie ClickHouse, Trino, Airflow kennen.

Sie erhalten einen Überblick über die Einsatzmöglichkeiten in verschiedenen Daten Architekturen wie Data Warehouse, Data Lake und Data Mesh. Der Fokus liegt auf der praktischen Anwendung moderner Open Source Tools für die Verarbeitung und Analyse großer Datenmengen.

Durch hands-on Übungen erstellen Sie ein echtzeitfähiges Data Warehouse mit ClickHouse und Kafka, lernen den Data Lakehouse-Ansatz mit Apache Iceberg kennen und integrieren verschiedene Datenspeicher mit Trino für datenübergreifende Abfragen.

Dieser Kurs ist ideal für Data Engineers, Data Architects und Entwickler, die moderne Open Source Data Warehouse-Lösungen implementieren und verwalten möchten.

Individueller Workshop

Für Unternehmen mit bestehender Data Warehouse-Implementierung

Bewertung Ihres aktuellen Einsatzes
Identifikation von Optimierungspotenzialen
Lösung spezifischer Fragestellungen
Praxisnahe Beratung für Ihre Herausforderungen
Maßgeschneiderte Schulung
Angepasst an Ihre Infrastruktur und Prozesse
Workshop anfragen

Individuelle Terminvereinbarung möglich

Kursinhalt


Open Source Technologien im Fokus

Unser Training konzentriert sich auf die wichtigsten Open Source Data Warehouse-Technologien. Wir behandeln folgende Tools im Detail:

ClickHouse

Analytische Datenspeicherung

Trino

Datenübergreifende Abfragen

Apache Airflow

Workflow-Orchestrierung

Apache Superset

Visualisierung und Dashboards

dlt & dbt

Datenintegration und Transformation

Apache Kafka

Real-time Datenströme

Apache Iceberg

Data Lakehouse-Format

Wir stimmen vor dem Training ab, welche Open Source Tools für Ihre spezifischen Anwendungsfälle besonders relevant sind.

Das Wichtigste auf einen Blick

Das nehmen Sie mit

Verständnis moderner Data Warehouse-Architekturen

Praktische Erfahrung mit ClickHouse für Datenspeicherung

Beherrschung von Trino für datenübergreifende Abfragen

Datenintegration mit dlt und dbt

Visualisierung mit Apache Superset

Echtzeitfähiges Data Warehouse mit Kafka

Data Lakehouse-Ansatz und Apache Iceberg

Voraussetzungen

Grundlegende Kenntnisse im Umgang mit Datenbanken

Verständnis für grundlegende Konzepte der Datenarchitektur

Basiswissen in der Datenverarbeitung

SQL-Grundkenntnisse (von Vorteil, aber nicht zwingend erforderlich)

Trainingsumgebung

Praktische Übungen mit Open Source Data Warehouse-Stack

Umfangreiche Trainingsunterlagen und Code-Beispiele

Hands-on mit ClickHouse, Trino, Airflow und Superset

Organisatorisches

Täglich von 9:00 bis 18:00 Uhr, inklusive Pausen

Schulungssprache, Materialien in Deutsch und Englisch

Mittagessen im Linuxhotel inklusive

Ihr Trainer

Trainer Uli Zellbeck

Uli Zellbeck

Uli ist erfahrener Trainer und verfügt über 25 Jahre Erfahrung in der IT-Branche. Als Senior Data Architect bringt er ein tiefgreifendes Know-how im Aufbau von Datenarchitekturen mit. Seine Expertise erstreckt sich über verschiedene Bereiche der Informationstechnologie, und er hat sich insbesondere auf die Entwicklung fortschrittlicher Datenlösungen on Premise und in der Cloud spezialisiert.

Die Teilnehmer können von seinem reichen Erfahrungsschatz profitieren, während er praxisnahe Einblicke in den Aufbau von Datenarchitekturen vermittelt. In den letzten Jahren hat er mehrere große Open Source Data Warehouse-Projekte implementiert und betreut, darunter:

  • Implementation von ClickHouse-Clustern für analytische Workloads
  • Aufbau von Data Lakehouse-Architekturen mit Apache Iceberg
  • Integration verschiedener Datenspeicher mit Trino Query Engine
  • Entwicklung von ETL/ELT-Pipelines mit dlt und dbt
  • Real-time Data Processing mit Apache Kafka und ClickHouse
  • Visualisierung und Dashboarding mit Apache Superset

Seine praktische Expertise umfasst das gesamte Spektrum moderner Data Warehouse-Technologien - von der Architekturplanung über die Tool-Auswahl bis hin zur Performance-Optimierung und dem Production-Deployment.

Verfügbare Termine

In-House Training

Umfassende Einführung in moderne Data Warehouse Architekturen mit Open Source Technologien.

Wir bieten dieses Training als In-House Schulung an, angepasst an Ihre Bedürfnisse. Termine und Konditionen sprechen wir gerne individuell mit Ihnen ab.

Dauer: 3 Tage
Bis zu 10 Teilnehmende
Bei Ihnen vor Ort oder Remote
ab 5.990 € zzgl. MwSt.

Unsere Partner

Linuxhotel Logo

Öffentliche Termine

1.1.2025

Linuxhotel Essen
Buchen

Buche das Training direkt im Terminal

~$

Weitere passende Trainings

Vertiefen Sie Ihr Wissen mit unseren praxisorientierten Data Engineering und Data Warehouse-Schulungen

Datenmodellierung im Data Warehouse

3 Tage

Datenmodellierung im Data Warehouse: Lernen Sie die Grundlagen oder entscheiden Sie sich für die Experten Schulungen

  • Grundlagen des dimensionalen Modellierens verstehen
  • Star Schema und Snowflake Schema entwerfen
  • Fact Tables und Dimension Tables modellieren

dbt

2 - 4 Tage

Praxisnahes dbt-Training: Beherrschen Sie SQL-Transformationen, Testing und CI/CD für nachhaltige Analytics-Engineering-Prozesse.

  • dbt Projekte aufsetzen und strukturieren
  • Datenmodelle mit SQL und dbt entwickeln
  • Tests für Datenqualität implementieren

Apache Airflow

2 Tage

Apache Airflow Training: Lernen Sie die führende Open-Source-Plattform für Data Pipeline Management und Workflow-Orchestrierung.

  • Apache Airflow installieren und konfigurieren
  • DAGs (Directed Acyclic Graphs) effektiv erstellen
  • Operatoren, Sensoren und Hooks einsetzen