The Principal Data Engineer will lead the design and development of Big Data, Analytics, and AI platforms, operationalize data science models, and guide engineering teams in client projects. This role combines technical leadership, cloud architecture expertise, and client consulting in a data-driven environment.
Responsibilities
- Konzeptionierung und Aufbau von Big Data / Analytics / AI Plattformen, inklusive DevOps workflows, IaC, CI/CD, IAM und Monitoring & Alerting
- Konzeption, Entwicklung und Skalierung von Daten-Pipelines auf verschiedenen Cloud-Architekturen unter Einbezug von Datenqualitätsmaßnahmen sowie der Entwurf und Umsetzung von Datenmodellen
- Operationalisierung von statistischen und KI-Modellen sowie Ergebnissen der Data Scientists, um diese zur produktiven Nutzung zur Verfügung zu stellen bzw. zu automatisieren
- Auswahl und Beratung von Kunden zu Vor- und Nachteilen verschiedener Technologie-Stacks, passend zu den Use Cases und dem Umfeld im Unternehmen
- Übernahme einer führenden Rolle in der Kundenkommunication und Leitung von Engineering-Projekten mit fachlicher Verantwortung für ein Entwicklerteam und die Projektergebnisse
- Aufbau von Data Engineering Expertise im Unternehmen z.B. durch das Halten von internen Schulungen, Leiten von internen Projekten und aktive Teilnahme in der Engineering Community
Requirements
- Erfolgreich abgeschlossenes Studium der Informatik, Computer Science, Data Engineering oder einem anderen mathematisch/ naturwissenschaftlichem Feld oder eine vergleichbare Qualifikation
- Starke Kommunikationsfähigkeit (fließend) auf Deutsch und Englisch sowie Reisebereitschaft im Rahmen einer Consulting Tätigkeit
- Mindestens 6 Jahre Vollzeit Berufserfahrung als Data Engineer in der Konzeption & Implementierung von Datenplattformen und Data Management Prozessen oder in ähnlichem Berufsfeld
- Mindestens 5 Jahre praktische Anwendung von gängigen Programmsprachen wie z.B. Python, Scala, SQL und Entwickler Tools wie bspw. GIT
- Mindestens 4 Jahre Umsetzungserfahrung mit BigData Technologien, insbesondere Spark / Kafka, verteilte Speichersysteme, OpenTable Formate und Cluster-Computing
- Mindestens 4 Jahre Erfahrung im Umgang mit verschiedensten Cloud Komponenten (Object Storage, Datenbanken, Message Services, ETL / ELT Engines, Security, Scheduling, Operations, Monitoring, etc.) im Bereich AWS / Azure / GCP
- Erfahrung mit mindestens einer der folgenden Technologien: Databricks / Snowflake / AWS Sagemaker / Azure Synapse / ähnliche Data-Analytics-Plattformen
- Erfahrung mit IaC Tools wie zum Beispiel Terraform, AWS CDK o.ä. sowie mit gängigen CI/CD Prozessen und Tools
Preferred Qualifications
- Erfahrung mit UNIX Systemen und Netzwerkkonfiguration
Technical Stack
Python, Scala, SQL, GIT, Spark, Kafka, Terraform, AWS CDK, AWS, Azure, GCP, Databricks, Snowflake, AWS Sagemaker, Azure Synapse, Object Storage, Message Services, ETL/ELT Engines, Security, Scheduling
Benefits
- Vertrauensarbeitszeit mit flexibler Arbeitszeitgestaltung
- Möglichkeit voll remote zu arbeiten
- Möglichkeit aus dem EU-Ausland zu arbeiten (workation)
- Arbeit in einem der modern eingerichteten Innenstadtbüros (inkl. Dachterrasse)
- Einzigartige Teamatmosphäre
- Flache Hierarchien zu unserem CEO Alex
- Offene Feedbackkultur
- Jährliche Teamworkshops auf dem Data.Castle im Zillertal
- Gelebtes Data.Musketeer Prinzip – „einer für alle, alle für einen!“
- Buddy Programm ([at] Buddy Programm) zur besseren Vernetzung
Compensation
kompetitives Gehalt mit variablen Anteilen. Equity: .... Kita-Zuschuss, Betriebliche Altersvorsorge mit 20% Bezuschussung, Corporate Benefits, Startguthaben im Merchandise-Shop
Work Arrangement
Hybrid — München, Nürnberg, Essen, Leipzig, Berlin, Frankfurt am Main — Vertrauensarbeitszeit mit flexibler Arbeitszeitgestaltung, voll remote möglich, workation aus dem EU-Ausland möglich


