
Apache Airflow
Eine praxisorientierte Einführung in die führende Open-Source-Plattform für die Orchestrierung von Datenpipelines.
Kursbeschreibung
Dieser zweitägige Kurs bietet eine praxisorientierte Einführung in Apache Airflow, eine führende Open-Source-Plattform für die Orchestrierung von Datenpipelines. Der Kurs richtet sich an Teilnehmer mit grundlegenden Python-Kenntnissen, die ihre Datenverarbeitungsprozesse automatisieren möchten.
Im Laufe der Schulung lernen Sie die Grundkonzepte von Airflow kennen, von der Installation über die Erstellung von DAGs (Directed Acyclic Graphs) bis hin zur Verwaltung komplexer Workflows.
Sie erfahren, wie Sie Tasks definieren, deren Abhängigkeiten festlegen und Ihre Pipelines effektiv überwachen können.
Dieser Kurs ist ideal für Data Engineers, DevOps-Ingenieure und Entwickler, die ihre Fähigkeiten im Bereich der Workflow-Automatisierung erweitern möchten.
Individueller Workshop
Für Unternehmen mit bestehender Apache Airflow-Implementierung
Identifikation von Optimierungspotenzialen
Praxisnahe Beratung für Ihre Herausforderungen
Angepasst an Ihre Infrastruktur und Prozesse
Individuelle Terminvereinbarung möglich
Kursinhalt
Modulare Datenquellen
Unser Training lässt sich individuell an Ihre Anforderungen anpassen. Wir können folgende relevante Datenquellen in das Training integrieren:
PostgreSQL, MySQL, Oracle, SQL Server, MongoDB
S3, GCS, Azure, Snowflake, BigQuery
Kafka, RabbitMQ, SQS/SNS, Pub/Sub
CSV, JSON, Parquet, Excel
REST APIs, GraphQL, Webhooks
Hadoop/HDFS, Spark, Hive, Salesforce
Wir stimmen vor dem Training ab, welche Datenquellen für Ihre Airflow-Pipelines besonders relevant sind.
Das Wichtigste auf einen Blick
Das nehmen Sie mit
Fähigkeit, eigene Datenpipelines mit Airflow zu entwickeln und zu überwachen
Best Practices für die Strukturierung und Wartung von DAGs
Praktische Erfahrung mit realen Anwendungsfällen wie ETL-Prozessen, API-Integration und Datenvalidierung
Strategien zur Fehlerbehebung und Performance-Optimierung
Eigene Airflow-Umgebung auf Ihrem Laptop mit abgestimmten Integrationen
Voraussetzungen
Eigener Laptop mit Python 3.8+ und Docker
Grundlegende Python-Kenntnisse (Funktionen, Klassen, Packages)
Basis-Erfahrung mit der Kommandozeile
Trainingsumgebung
Praktische Übungen mit aktueller Version von Apache Airflow in einer lokalen Docker-Umgebung
Umfangreiche Trainingsunterlagen und Codebeispiele zum Nachschlagen
Organisatorisches
Täglich von 9:00 bis 17:00 Uhr, inklusive Pausen
Schulungssprache, Materialien in Deutsch und Englisch
Ihr Trainer

Uli Zellbeck
Uli ist erfahrener Trainer und verfügt über 25 Jahre Erfahrung in der IT-Branche. Als Senior Data Architect bringt er ein tiefgreifendes Know-how im Aufbau von Datenarchitekturen mit. Seine Expertise erstreckt sich über verschiedene Bereiche der Informationstechnologie, und er hat sich insbesondere auf die Entwicklung fortschrittlicher Datenlösungen in der Cloud spezialisiert.
Die Teilnehmer profitieren von seiner umfangreichen praktischen Erfahrung mit Apache Airflow in verschiedenen Unternehmenskontexten. In den letzten Jahren hat er mehrere große Airflow-Installationen implementiert und betreut, darunter:
- Entwicklung einer Enterprise Data Platform mit Airflow als zentraler Orchestrierungskomponente
- Implementation von Self-Service Data Capabilities basierend auf Airflow
- Integration von Airflow mit verschiedenen Cloud-Diensten (AWS, Google Cloud)
- Entwicklung von Custom Operators und Erweiterungen
Seine praktische Expertise umfasst das gesamte Spektrum von Apache Airflow - von der Installation über die DAG-Entwicklung bis hin zur Produktivstellung und dem Monitoring komplexer Workflows.
Verfügbare Termine
In-House Training
Praxisorientiertes Training zu Apache Airflow für zuverlässige Data Pipeline Orchestrierung und Workflow-Automatisierung.
Wir bieten dieses Training als In-House Schulung an, angepasst an Ihre Bedürfnisse. Termine und Konditionen sprechen wir gerne individuell mit Ihnen ab.
Unsere Partner

Öffentliche Termine
Öffentliche Termine in Planung
Wir planen derzeit öffentliche Termine für dieses Training in Zusammenarbeit mit unseren Partnern.
Buche das Training direkt im Terminal
Weitere passende Trainings
Vertiefen Sie Ihr Wissen mit unseren praxisorientierten Data Engineering-Schulungen
dbt
Praxisnahes dbt-Training: Beherrschen Sie SQL-Transformationen, Testing und CI/CD für nachhaltige Analytics-Engineering-Prozesse.
- dbt Projekte aufsetzen und strukturieren
- Datenmodelle mit SQL und dbt entwickeln
- Tests für Datenqualität implementieren
Modern Data Warehouse
Modern Data Warehouse Training: Konzipieren und implementieren Sie skalierbare Cloud-Datenplattformen mit modernsten Technologien.
- Moderne DWH-Architekturen konzipieren
- Cloud-basierte Data Warehouse implementieren
- ELT-Prozesse mit dbt aufbauen