München, Germany Hybrid Full-time

Alexander Thamm GmbH is hiring a Principal Data Engineer (m/w/d)

About the Role

The Principal Data Engineer will lead the design and development of Big Data, Analytics, and AI platforms, operationalize data science models, and guide engineering teams in client projects. This role combines technical leadership, cloud architecture expertise, and client consulting in a data-driven environment.

Responsibilities

  • Konzeptionierung und Aufbau von Big Data / Analytics / AI Plattformen, inklusive DevOps workflows, IaC, CI/CD, IAM und Monitoring & Alerting
  • Konzeption, Entwicklung und Skalierung von Daten-Pipelines auf verschiedenen Cloud-Architekturen unter Einbezug von Datenqualitätsmaßnahmen sowie der Entwurf und Umsetzung von Datenmodellen
  • Operationalisierung von statistischen und KI-Modellen sowie Ergebnissen der Data Scientists, um diese zur produktiven Nutzung zur Verfügung zu stellen bzw. zu automatisieren
  • Auswahl und Beratung von Kunden zu Vor- und Nachteilen verschiedener Technologie-Stacks, passend zu den Use Cases und dem Umfeld im Unternehmen
  • Übernahme einer führenden Rolle in der Kundenkommunication und Leitung von Engineering-Projekten mit fachlicher Verantwortung für ein Entwicklerteam und die Projektergebnisse
  • Aufbau von Data Engineering Expertise im Unternehmen z.B. durch das Halten von internen Schulungen, Leiten von internen Projekten und aktive Teilnahme in der Engineering Community

Requirements

  • Erfolgreich abgeschlossenes Studium der Informatik, Computer Science, Data Engineering oder einem anderen mathematisch/ naturwissenschaftlichem Feld oder eine vergleichbare Qualifikation
  • Starke Kommunikationsfähigkeit (fließend) auf Deutsch und Englisch sowie Reisebereitschaft im Rahmen einer Consulting Tätigkeit
  • Mindestens 6 Jahre Vollzeit Berufserfahrung als Data Engineer in der Konzeption & Implementierung von Datenplattformen und Data Management Prozessen oder in ähnlichem Berufsfeld
  • Mindestens 5 Jahre praktische Anwendung von gängigen Programmsprachen wie z.B. Python, Scala, SQL und Entwickler Tools wie bspw. GIT
  • Mindestens 4 Jahre Umsetzungserfahrung mit BigData Technologien, insbesondere Spark / Kafka, verteilte Speichersysteme, OpenTable Formate und Cluster-Computing
  • Mindestens 4 Jahre Erfahrung im Umgang mit verschiedensten Cloud Komponenten (Object Storage, Datenbanken, Message Services, ETL / ELT Engines, Security, Scheduling, Operations, Monitoring, etc.) im Bereich AWS / Azure / GCP
  • Erfahrung mit mindestens einer der folgenden Technologien: Databricks / Snowflake / AWS Sagemaker / Azure Synapse / ähnliche Data-Analytics-Plattformen
  • Erfahrung mit IaC Tools wie zum Beispiel Terraform, AWS CDK o.ä. sowie mit gängigen CI/CD Prozessen und Tools

Preferred Qualifications

  • Erfahrung mit UNIX Systemen und Netzwerkkonfiguration

Technical Stack

Python, Scala, SQL, GIT, Spark, Kafka, Terraform, AWS CDK, AWS, Azure, GCP, Databricks, Snowflake, AWS Sagemaker, Azure Synapse, Object Storage, Message Services, ETL/ELT Engines, Security, Scheduling

Benefits

  • Vertrauensarbeitszeit mit flexibler Arbeitszeitgestaltung
  • Möglichkeit voll remote zu arbeiten
  • Möglichkeit aus dem EU-Ausland zu arbeiten (workation)
  • Arbeit in einem der modern eingerichteten Innenstadtbüros (inkl. Dachterrasse)
  • Einzigartige Teamatmosphäre
  • Flache Hierarchien zu unserem CEO Alex
  • Offene Feedbackkultur
  • Jährliche Teamworkshops auf dem Data.Castle im Zillertal
  • Gelebtes Data.Musketeer Prinzip – „einer für alle, alle für einen!“
  • Buddy Programm ([at] Buddy Programm) zur besseren Vernetzung

Compensation

kompetitives Gehalt mit variablen Anteilen. Equity: .... Kita-Zuschuss, Betriebliche Altersvorsorge mit 20% Bezuschussung, Corporate Benefits, Startguthaben im Merchandise-Shop

Work Arrangement

Hybrid — München, Nürnberg, Essen, Leipzig, Berlin, Frankfurt am Main — Vertrauensarbeitszeit mit flexibler Arbeitszeitgestaltung, voll remote möglich, workation aus dem EU-Ausland möglich

Required Skills
PythonScalaSQLSparkKafkaAWSAzureTerraformGitData PipelinesBig DataCloud ArchitectureCI/CDDevOpsIaC PythonScalaSQLSparkKafkaAWSAzureTerraformGitData PipelinesBig DataCloud ArchitectureCI/CDDevOpsIaC
Ready to relocate and code from paradise?

Thailand or Vietnam — your office, your rules

Iglu offers relocation to Bangkok, Chiang Mai, Ho Chi Minh City, or Hong Kong. Full employment, legal setup, and a community of 200+ digital professionals.

Relocation to 5 countries
Full legal work setup
Developer community access
Work-life balance culture
Explore locations
Relocation support included
About company
Alexander Thamm GmbH

Alexander Thamm [at] ist eine inhabergeführte Beratung für Daten und Künstliche Intelligenz.

Mit über 500 Mitarbeitenden und der Erfahrung aus mehr als 3.500 Daten- und KI-Projekten begleiten wir seit 2012 DAX-Konzerne, Hidden Champions und KMU auf ihrer Data Journey.

Die Services gliedern sich in vier Bereiche: Data Strategy, Data Lab, Data Factory und DataOps – von der Strategieentwicklung über die technische Umsetzung bis zur Skalierung und Wartung von Daten- und KI-Lösungen.

All jobs at Alexander Thamm GmbH Visit website
Job Details
Department Projektmanagement
Category data
Posted 2 years ago