Offerta di lavoro

Ingegnere Data Ops

EFG International è alla ricerca di un Data Ops Engineer responsabile dell'integrazione, del rilascio e del monitoraggio delle pipeline e dei flussi di lavoro dei dati, con esperienza nel campo del data engineering e delle operazioni sui dati. Il candidato prescelto entrerà a far parte di un team globale e lavorerà a Singapore per sostenere l'eccellenza operativa in Asia e in Europa.

Descrizione del lavoro

Il team DataOps è responsabile dell'integrazione, dell'approvazione e del monitoraggio senza soluzione di continuità delle pipeline di dati e dei flussi di lavoro critici per l'azienda. Il team ha attualmente sede a Ginevra e sta ampliando la propria presenza globale attraverso la creazione di un team virtuale a Singapore.

Compiti e responsabilità

I compiti e le responsabilità comprendono:
  • Assunzione della responsabilità operativa per determinati servizi relativi ai dati (gestione del cambiamento, garanzia della qualità, SLA, SOP)
  • Monitoraggio e garanzia della continuità operativa dei flussi di dati critici all'interno del Gruppo durante i fusi orari asiatici, utilizzando un modello di assistenza "Follow-the-Sun"
  • Progettazione, implementazione e ottimizzazione di pipeline di dati in modalità batch e streaming
  • Applicazione delle pratiche CICD per l'automazione e l'ottimizzazione delle implementazioni e delle integrazioni
  • Creazione, aggiornamento e miglioramento della documentazione e delle procedure operative nell'ambito delle responsabilità operative
  • Collaborazione con team interfunzionali per la verifica della governance e il miglioramento delle operazioni di integrazione
  • Mantenimento di elevati standard in termini di qualità dei dati, affidabilità e prestazioni
  • Aggiornamento con i progressi nella tecnologia di ingegneria dei dati e DataOps, al fine di favorire il miglioramento continuo

Requisiti e qualifiche

I requisiti e le qualifiche comprendono:
  • Esperienza in ruoli di ingegneria dei dati e gestione dei dati
  • Esperienza pratica comprovata con SQL, Python, PySpark e DataBricks
  • È altamente auspicabile possedere conoscenze in materia di architetture a microservizi, gestione delle API e osservabilità
  • Ottima conoscenza delle piattaforme e dei processi CI/CD (ad es. Azure DevOps, GitLab CI, GitHub Actions)
  • Esperienza con piattaforme di dati cloud (preferibilmente Azure)
  • Comprovata capacità di redigere documentazione e procedure rigorose, chiare ed esaurienti
  • Competenza nella progettazione di database
  • Ottime capacità di risoluzione dei problemi e attenzione ai dettagli
  • Capacità efficaci di comunicazione e collaborazione

Offriamo

Offriamo un ambiente di lavoro solidale, in cui i vostri contributi sono apprezzati e valorizzati. I nostri valori includono la promozione della diversità e dell'inclusione, al fine di favorire un processo decisionale più efficace e una maggiore innovazione.

Dettagli sul lavoro

© 2025 House of Skills by skillaware. Tutti i diritti riservati.
Il nostro sito web utilizza i cookie per facilitarvi la navigazione e per analizzare l'utilizzo del sito. Per ulteriori informazioni, consultare la nostra informativa sulla privacy.