Hintergrundbild

Apache Airflow

Eine praxisorientierte Einführung in die führende Open-Source-Plattform für die Orchestrierung von Datenpipelines.

Dauer
2 Tage
Level
Einsteiger, Fortgeschritten
Ort
Vor Ort, Remote
Nächster Termin
Auf Anfrage

Kursbeschreibung

Dieser zweitägige Kurs bietet eine praxisorientierte Einführung in Apache Airflow, eine führende Open-Source-Plattform für die Orchestrierung von Datenpipelines. Der Kurs richtet sich an Teilnehmer mit grundlegenden Python-Kenntnissen, die ihre Datenverarbeitungsprozesse automatisieren möchten.

Im Laufe der Schulung lernen Sie die Grundkonzepte von Airflow kennen, von der Installation über die Erstellung von DAGs (Directed Acyclic Graphs) bis hin zur Verwaltung komplexer Workflows.

Sie erfahren, wie Sie Tasks definieren, deren Abhängigkeiten festlegen und Ihre Pipelines effektiv überwachen können.

Dieser Kurs ist ideal für Data Engineers, DevOps-Ingenieure und Entwickler, die ihre Fähigkeiten im Bereich der Workflow-Automatisierung erweitern möchten.

Individueller Workshop

Für Unternehmen mit bestehender Apache Airflow-Implementierung

Bewertung Ihres aktuellen Einsatzes
Identifikation von Optimierungspotenzialen
Lösung spezifischer Fragestellungen
Praxisnahe Beratung für Ihre Herausforderungen
Maßgeschneiderte Schulung
Angepasst an Ihre Infrastruktur und Prozesse
Workshop anfragen

Individuelle Terminvereinbarung möglich

Kursinhalt


Modulare Datenquellen

Unser Training lässt sich individuell an Ihre Anforderungen anpassen. Wir können folgende relevante Datenquellen in das Training integrieren:

PostgreSQL, MySQL, Oracle, SQL Server, MongoDB

S3, GCS, Azure, Snowflake, BigQuery

Kafka, RabbitMQ, SQS/SNS, Pub/Sub

CSV, JSON, Parquet, Excel

REST APIs, GraphQL, Webhooks

Hadoop/HDFS, Spark, Hive, Salesforce

Wir stimmen vor dem Training ab, welche Datenquellen für Ihre Airflow-Pipelines besonders relevant sind.

Das Wichtigste auf einen Blick

Das nehmen Sie mit

Fähigkeit, eigene Datenpipelines mit Airflow zu entwickeln und zu überwachen

Best Practices für die Strukturierung und Wartung von DAGs

Praktische Erfahrung mit realen Anwendungsfällen wie ETL-Prozessen, API-Integration und Datenvalidierung

Strategien zur Fehlerbehebung und Performance-Optimierung

Eigene Airflow-Umgebung auf Ihrem Laptop mit abgestimmten Integrationen

Voraussetzungen

Eigener Laptop mit Python 3.8+ und Docker

Grundlegende Python-Kenntnisse (Funktionen, Klassen, Packages)

Basis-Erfahrung mit der Kommandozeile

Trainingsumgebung

Praktische Übungen mit aktueller Version von Apache Airflow in einer lokalen Docker-Umgebung

Umfangreiche Trainingsunterlagen und Codebeispiele zum Nachschlagen

Organisatorisches

Täglich von 9:00 bis 17:00 Uhr, inklusive Pausen

Schulungssprache, Materialien in Deutsch und Englisch

Ihr Trainer

Trainer Uli Zellbeck

Uli Zellbeck

Uli ist erfahrener Trainer und verfügt über 25 Jahre Erfahrung in der IT-Branche. Als Senior Data Architect bringt er ein tiefgreifendes Know-how im Aufbau von Datenarchitekturen mit. Seine Expertise erstreckt sich über verschiedene Bereiche der Informationstechnologie, und er hat sich insbesondere auf die Entwicklung fortschrittlicher Datenlösungen in der Cloud spezialisiert.

Die Teilnehmer profitieren von seiner umfangreichen praktischen Erfahrung mit Apache Airflow in verschiedenen Unternehmenskontexten. In den letzten Jahren hat er mehrere große Airflow-Installationen implementiert und betreut, darunter:

  • Entwicklung einer Enterprise Data Platform mit Airflow als zentraler Orchestrierungskomponente
  • Implementation von Self-Service Data Capabilities basierend auf Airflow
  • Integration von Airflow mit verschiedenen Cloud-Diensten (AWS, Google Cloud)
  • Entwicklung von Custom Operators und Erweiterungen

Seine praktische Expertise umfasst das gesamte Spektrum von Apache Airflow - von der Installation über die DAG-Entwicklung bis hin zur Produktivstellung und dem Monitoring komplexer Workflows.

Verfügbare Termine

In-House Training

Praxisorientiertes Training zu Apache Airflow für zuverlässige Data Pipeline Orchestrierung und Workflow-Automatisierung.

Wir bieten dieses Training als In-House Schulung an, angepasst an Ihre Bedürfnisse. Termine und Konditionen sprechen wir gerne individuell mit Ihnen ab.

Dauer: 2 Tage
Bis zu 10 Teilnehmende
Bei Ihnen vor Ort oder Remote
ab 3.990 € zzgl. MwSt.

Unsere Partner

Linuxhotel LogoGFU Logo

Öffentliche Termine

Öffentliche Termine in Planung

Wir planen derzeit öffentliche Termine für dieses Training in Zusammenarbeit mit unseren Partnern.

Buche das Training direkt im Terminal

~$

Weitere passende Trainings

Vertiefen Sie Ihr Wissen mit unseren praxisorientierten Data Engineering-Schulungen

dbt

2 - 4 Tage

Praxisnahes dbt-Training: Beherrschen Sie SQL-Transformationen, Testing und CI/CD für nachhaltige Analytics-Engineering-Prozesse.

  • dbt Projekte aufsetzen und strukturieren
  • Datenmodelle mit SQL und dbt entwickeln
  • Tests für Datenqualität implementieren

Modern Data Warehouse

3 Tage

Modern Data Warehouse Training: Konzipieren und implementieren Sie skalierbare Cloud-Datenplattformen mit modernsten Technologien.

  • Moderne DWH-Architekturen konzipieren
  • Cloud-basierte Data Warehouse implementieren
  • ELT-Prozesse mit dbt aufbauen