Offerta di lavoro

Ingegnere DataOps

Il DataOps Engineer sviluppa e gestisce due importanti piattaforme di dati per garantire operazioni di data pipeline e consegne di prodotti affidabili, scalabili ed efficienti. Il dipendente lavora a stretto contatto con ingegneri dei dati, analisti e partner commerciali per fornire prodotti di dati che consentono approfondimenti commerciali e analisi avanzate.

Descrizione del lavoro

Stiamo cercando un DataOps Engineer motivato e proattivo che si unisca al nostro team. In questo ruolo, contribuirai allo sviluppo e alla gestione delle nostre due principali piattaforme di dati per garantire operazioni di data pipeline e consegne di prodotti affidabili, scalabili ed efficienti. Lavorerai a stretto contatto con ingegneri dei dati, analisti e partner commerciali per gestire e supportare le nostre piattaforme di integrazione dei dati e data lakehouse, fornendo all'organizzazione prodotti di dati affidabili e tempestivi.

Compiti principali

  • Creazione, gestione e ottimizzazione di pipeline di dati e flussi di lavoro nel nostro ecosistema Lakehouse.
  • Garantire l'affidabilità, la scalabilità e le prestazioni delle operazioni sui dati negli ambienti di produzione.
  • Collaborazione con team interfunzionali per fornire prodotti di dati che consentono approfondimenti aziendali e analisi avanzate.
  • Implementazione e manutenzione di pipeline CI/CD per sistemi di dati e flussi di lavoro.
  • Risoluzione proattiva dei problemi e proposta di nuove idee per migliorare l'architettura e le operazioni dei dati.
  • Contributo all'automazione, alla documentazione e all'implementazione delle migliori pratiche in DataOps (DevOps).
  • Monitoraggio, risoluzione dei problemi e miglioramento continuo dei sistemi e dei processi di dati.
  • Partecipazione ai servizi di reperibilità.

Requisiti

Mentalità e competenze trasversali

  • Forte motivazione, curiosità e voglia di imparare.
  • Proattivo, autonomo e orientato alle soluzioni.
  • Capacità di prendere iniziative e proporre nuove idee.

Competenze tecniche

  • Ottima conoscenza di SQL (idealmente Microsoft SQL Server).
  • Buona esperienza con modelli di streaming dati.
  • Buona esperienza con Python e linguaggi di scripting; PySpark è un forte vantaggio.
  • Buona esperienza con la containerizzazione (Docker, Kubernetes) e le piattaforme cloud.
  • Esperienza comprovata con pipeline CI/CD.
  • Familiarità con le architetture Lakehouse (Delta Lake, Iceberg, ...).
  • Comprensione dei concetti relativi ai prodotti dati e delle moderne pratiche di gestione dei dati.
  • Capacità di leggere e comprendere Java, Camell, Talend EISB, Powershell.

Bello da avere

  • Esperienza con MS Fabric o Databricks.
  • Esperienza con l'osservabilità.
  • Conoscenza delle migliori pratiche in materia di governance dei dati e sicurezza.
  • Familiarità con strumenti di BI o analisi.

Offriamo

  • Un'opportunità per lavorare con moderne tecnologie informatiche in un ambiente collaborativo e orientato al futuro.
  • La possibilità di plasmare e influenzare le nostre pratiche e la nostra architettura DataOps.

Dettagli sul lavoro

© 2025 House of Skills by skillaware. Tutti i diritti riservati.
Il nostro sito web utilizza i cookie per facilitarvi la navigazione e per analizzare l'utilizzo del sito. Per ulteriori informazioni, consultare la nostra informativa sulla privacy.