Mein Antrieb ist es, Daten verfügbar, zugänglich und für unser Verständnis nutzbar zu machen. Das systematische und reproduzierbare Gewinnen von Erkenntnissen ist dabei das Ziel. Diese Klarheit leitet mich durch alle Ebenen und Prozesse der Daten-Pipeline: von der Datenbeschaffung, Umwandlung, Nutzung und Analyse. Ich unterstütze Teams in allen notwendigen Bereichen, Daten in echte Lösungen zu verwandeln und daraus robuste Entscheidungen abzuleiten. Mit meinem Hintergrund in Wissenschaft & medizinischer Forschung (Neurobiologie: Gehirn & Neurowissenschaften) zusammen mit meinen Erfahrungen in verschiedenen Branchen wie z.B. FMCG, E-Commerce, Pharma/ Medizin kann ich eine seltene Kombination aus Daten-Skills, IT-Anwendungen, Analyse-Fähigkeiten, Data-Engineering, Cloud-Computing und starke Programmierkenntnisse einbringen.
Die folgenden drei Gebiete fassen konkrete Aufgaben zusammen:
1.) Data Engineering: Daten Pipelines (ELT/ETL), Daten Modellierung, Cloud Computing, Data Warehouses, Data Lakes. Tech-Stack: Airbyte, AWS, Apache Kafka, Apache Spark, ClickHouse, Databricks, dbt, Docker, Confluent, Jinja, Jupyter Notebook, Preset, Snowflake
2.) Data Science, Analyse & Statistik: Konzeption, Datenanalyse, Visualisierung. Aufbau systematischer Daten-Pipelines. Programmiersprachen: Python, R, SQL, Matlab
3.) Digitale Forschung: Produkte, Services & medizinische Anwendungen (Web/Mobile): Experiment Design, Erhebung & Analysen von User-Verhalten (online/offline), Produkt-, Usability- Validierungstests, Qualitative & quantitative Analysen, Evaluationskonzepte