- Aufbau robuster Datenpipelines (Batch & Streaming) mit PySpark, SQL, Databricks und Snowflake.
- Architektur moderner Cloud-Infrastrukturen auf Azure, AWS und GCP mittels Terraform.
- Containerisierung mit Docker sowie skalierbare Deployments auf Kubernetes-Clustern (GKE, AKS).
- Umsetzung von Data Mesh-Strategien und Automatisierung von ML-Workflows mit Kubeflow Pipelines.
- Erfahrung als Technical Lead – inklusive Mentoring von Teams und Aufbau nachhaltiger Best Practices in Data Engineering und DevOps.
- EyloCTO und GründerJuni 2024 - Mai 2025 (11 Monate)Hamburg, DeutschlandAls CTO und Mitgründer eines technologiegetriebenen Startups war ich verantwortlich für die gesamte technische Strategie und Umsetzung. Ich entwarf und implementierte eine skalierbare, modulare Cloud-Infrastruktur auf Microsoft Azure und etablierte moderne DevOps- und Sicherheitsstandards. Ich entwickelte KI-Agenten auf Basis von LLMs unter Einsatz von LangChain, LangGraph und LangSmith und integrierte diese nahtlos in unsere Systemlandschaft. Zudem verantwortete ich die Entwicklung einer plattformübergreifenden Mobile App mit React Native, die in Echtzeit mit Cloud-Diensten und APIs kommuniziert. Mein Fokus lag stets auf Skalierbarkeit, Effizienz, Wiederverwendbarkeit und Innovationskraft.
- EraneosSenior Data EngineerJuli 2021 - Juni 2024 (2 Jahre und 11 Monate)
- Führte die Entwicklung von Datenpipelines für Celonis Process Mining unter Einsatz von SQL, Databricks und Snowflake durch und bearbeitete dabei umfangreiche Unternehmensdatensätze.
- Entwarf die Cloud-Infrastruktur auf Azure mit Terraform, um eine produktionsreife, auf LLM basierende Anwendung bereitzustellen, die Skalierbarkeit und Sicherheit gewährleistet.
- Übernahm die vollständige Verantwortung für den Lebenszyklus eines Datenprodukts im Rahmen eines Data Mesh-Ansatzes — integrierte Systeme über Snowflake, dbt, Kafka, AWS und CI/CD mit Terraform.
- Agierte als technischer Lead in funktionsübergreifenden Teams, coachte Junioren und prägte interne Best Practices in den Bereichen Datenarchitektur und DevOps.
- Entwickelte zuverlässige, idempotente Pipelines mit PySpark für die Verarbeitung von Batch- und Streaming-Workloads in der Produktion.
- Konzipierte Monitoring- und Alerting-Systeme für Datenpipelines, wodurch Daten-SLAs verbessert und Ausfallzeiten reduziert wurden.
- Trug zur Skalierbarkeit der Plattform bei, indem Kubeflow Pipelines integriert wurden, um ML-Workflows für Data-Science-Teams zu automatisieren.
- Leitete Implementierungen GCP-basierter Architekturen mit GKE, Pub/Sub, Cloud Storage und Terraform, wobei eine saubere und reproduzierbare Infrastruktur sichergestellt wurde.
- Sopra SteriaData EngineerJuli 2019 - Juli 2021 (2 Jahre)
- Entwickelte skalierbare Datenpipelines mit PySpark auf Palantir Foundry.
- Entwarf und entwickelte BI-Webanwendungen mit Python Flask, Elasticsearch, Keycloak und Microsoft Azure.
- M.Sc. Aerospace EngineeringKöniglich Technische Hochschule2017“Validation and Optimization of a Non-Cooperative Sense and Avoid System” in collaboration with Airbus Defence and Space, Germany. → Developed algorithms for autonomous aerial vehicle navigation, with a focus on safety-critical system behavior and sensor fusion.
- Google Cloud Professional Data EngineerAccredible2022