Offerta di lavoro
Ingegnere DataOps
Il DataOps Engineer sviluppa e gestisce due importanti piattaforme di dati per garantire operazioni di data pipeline e consegne di prodotti affidabili, scalabili ed efficienti. Il dipendente lavora a stretto contatto con ingegneri dei dati, analisti e partner commerciali per fornire prodotti di dati che consentono approfondimenti commerciali e analisi avanzate.
Descrizione del lavoro
Stiamo cercando un DataOps Engineer motivato e proattivo che si unisca al nostro team. In questo ruolo, contribuirai allo sviluppo e alla gestione delle nostre due principali piattaforme di dati per garantire operazioni di data pipeline e consegne di prodotti affidabili, scalabili ed efficienti. Lavorerai a stretto contatto con ingegneri dei dati, analisti e partner commerciali per gestire e supportare le nostre piattaforme di integrazione dei dati e data lakehouse, fornendo all'organizzazione prodotti di dati affidabili e tempestivi.Compiti principali
- Creazione, gestione e ottimizzazione di pipeline di dati e flussi di lavoro nel nostro ecosistema Lakehouse.
- Garantire l'affidabilità, la scalabilità e le prestazioni delle operazioni sui dati negli ambienti di produzione.
- Collaborazione con team interfunzionali per fornire prodotti di dati che consentono approfondimenti aziendali e analisi avanzate.
- Implementazione e manutenzione di pipeline CI/CD per sistemi di dati e flussi di lavoro.
- Risoluzione proattiva dei problemi e proposta di nuove idee per migliorare l'architettura e le operazioni dei dati.
- Contributo all'automazione, alla documentazione e all'implementazione delle migliori pratiche in DataOps (DevOps).
- Monitoraggio, risoluzione dei problemi e miglioramento continuo dei sistemi e dei processi di dati.
- Partecipazione ai servizi di reperibilità.
Requisiti
Mentalità e competenze trasversali
- Forte motivazione, curiosità e voglia di imparare.
- Proattivo, autonomo e orientato alle soluzioni.
- Capacità di prendere iniziative e proporre nuove idee.
Competenze tecniche
- Ottima conoscenza di SQL (idealmente Microsoft SQL Server).
- Buona esperienza con modelli di streaming dati.
- Buona esperienza con Python e linguaggi di scripting; PySpark è un forte vantaggio.
- Buona esperienza con la containerizzazione (Docker, Kubernetes) e le piattaforme cloud.
- Esperienza comprovata con pipeline CI/CD.
- Familiarità con le architetture Lakehouse (Delta Lake, Iceberg, ...).
- Comprensione dei concetti relativi ai prodotti dati e delle moderne pratiche di gestione dei dati.
- Capacità di leggere e comprendere Java, Camell, Talend EISB, Powershell.
Bello da avere
- Esperienza con MS Fabric o Databricks.
- Esperienza con l'osservabilità.
- Conoscenza delle migliori pratiche in materia di governance dei dati e sicurezza.
- Familiarità con strumenti di BI o analisi.
Offriamo
- Un'opportunità per lavorare con moderne tecnologie informatiche in un ambiente collaborativo e orientato al futuro.
- La possibilità di plasmare e influenzare le nostre pratiche e la nostra architettura DataOps.
Dettagli sul lavoro