Stellenangebot
DataOps Engineer
Der DataOps Engineer entwickelt und betreibt zwei wichtige Datenplattformen, um zuverlässige, skalierbare und effiziente Datenpipeline-Operationen und Produktlieferungen sicherzustellen. Der Mitarbeiter arbeitet eng mit Dateningenieuren, Analysten und Geschäftspartnern zusammen, um Datenprodukte zu liefern, die Geschäftsinsights und erweiterte Analysen ermöglichen.
Stellenbeschreibung
Wir suchen einen motivierten und proaktiven DataOps Engineer, der sich unserem Team anschließt. In dieser Rolle werden Sie zur Entwicklung und zum Betrieb unserer beiden wichtigsten Datenplattformen beitragen, um zuverlässige, skalierbare und effiziente Datenpipeline-Operationen und Produktlieferungen sicherzustellen. Sie werden eng mit Dateningenieuren, Analysten und Geschäftspartnern zusammenarbeiten, um unsere Datenintegrations- und Data-Lakehouse-Plattformen zu betreiben und zu unterstützen, indem Sie vertrauenswürdige Datenprodukte rechtzeitig an die Organisation liefern.Hauptaufgaben
- Erstellung, Betrieb und Optimierung von Datenpipelines und Workflows in unserem Lakehouse-Ökosystem.
- Sicherstellung von Zuverlässigkeit, Skalierbarkeit und Leistung von Datenoperationen in Produktionsumgebungen.
- Zusammenarbeit mit funktionsübergreifenden Teams, um Datenprodukte zu liefern, die Geschäftseinblicke und erweiterte Analysen ermöglichen.
- Implementierung und Wartung von CI/CD-Pipelines für Daten systeme und Workflows.
- Proaktive Problemlösung und Vorschlag neuer Ideen zur Verbesserung der Datenarchitektur und -operationen.
- Beitrag zur Automatisierung, Dokumentation und Implementierung bewährter Praktiken in DataOps (DevOps).
- Überwachung, Fehlerbehebung und kontinuierliche Verbesserung von Daten systemen und Prozessen.
- Teilnahme an Bereitschaftsdiensten.
Anforderungen
Mindset & Soft Skills
- Starke Motivation, Neugier und Lernbereitschaft.
- Proaktiv, autonom und lösungsorientiert.
- Fähigkeit, Initiative zu ergreifen und neue Ideen einzubringen.
Technische Fähigkeiten
- Starke Kenntnisse von SQL (idealerweise Microsoft SQL Server).
- Gute Erfahrung mit Daten-Streaming-Mustern.
- Gute Erfahrung mit Python und Skriptsprachen; PySpark ist ein starkes Plus.
- Gute Erfahrung mit Containerisierung (Docker, Kubernetes) und Cloud-Plattformen.
- Nachgewiesene Erfahrung mit CI/CD-Pipelines.
- Vertrautheit mit Lakehouse-Architekturen (Delta Lake, Iceberg, …).
- Verständnis von Data-Product-Konzepten und modernen Datenmanagement-Praktiken.
- Fähigkeit, Java, Camell, Talend EISB, Powershell zu lesen und zu verstehen.
Nice to Have
- Erfahrung mit MS Fabric oder Databricks.
- Erfahrung mit Observabilität.
- Kenntnisse von Data-Governance- und Sicherheitsbest-Practices.
- Vertrautheit mit BI- oder Analysetools.
Wir bieten
- Eine Chance, mit modernen Datentechnologien in einer kollaborativen und zukunftsorientierten Umgebung zu arbeiten.
- Die Möglichkeit, unsere DataOps-Praktiken und -Architektur zu gestalten und zu beeinflussen.
Jobdetails