Offerta di lavoro
Ingegnere Data Ops
EFG International è alla ricerca di un Data Ops Engineer responsabile dell'integrazione, del rilascio e del monitoraggio delle pipeline e dei flussi di lavoro dei dati, con esperienza nel campo del data engineering e delle operazioni sui dati. Il candidato prescelto entrerà a far parte di un team globale e lavorerà a Singapore per sostenere l'eccellenza operativa in Asia e in Europa.
Descrizione del lavoro
Il team DataOps è responsabile dell'integrazione, dell'approvazione e del monitoraggio senza soluzione di continuità delle pipeline di dati e dei flussi di lavoro critici per l'azienda. Il team ha attualmente sede a Ginevra e sta ampliando la propria presenza globale attraverso la creazione di un team virtuale a Singapore.Compiti e responsabilità
I compiti e le responsabilità comprendono:- Assunzione della responsabilità operativa per determinati servizi relativi ai dati (gestione del cambiamento, garanzia della qualità, SLA, SOP)
- Monitoraggio e garanzia della continuità operativa dei flussi di dati critici all'interno del Gruppo durante i fusi orari asiatici, utilizzando un modello di assistenza "Follow-the-Sun"
- Progettazione, implementazione e ottimizzazione di pipeline di dati in modalità batch e streaming
- Applicazione delle pratiche CICD per l'automazione e l'ottimizzazione delle implementazioni e delle integrazioni
- Creazione, aggiornamento e miglioramento della documentazione e delle procedure operative nell'ambito delle responsabilità operative
- Collaborazione con team interfunzionali per la verifica della governance e il miglioramento delle operazioni di integrazione
- Mantenimento di elevati standard in termini di qualità dei dati, affidabilità e prestazioni
- Aggiornamento con i progressi nella tecnologia di ingegneria dei dati e DataOps, al fine di favorire il miglioramento continuo
Requisiti e qualifiche
I requisiti e le qualifiche comprendono:- Esperienza in ruoli di ingegneria dei dati e gestione dei dati
- Esperienza pratica comprovata con SQL, Python, PySpark e DataBricks
- È altamente auspicabile possedere conoscenze in materia di architetture a microservizi, gestione delle API e osservabilità
- Ottima conoscenza delle piattaforme e dei processi CI/CD (ad es. Azure DevOps, GitLab CI, GitHub Actions)
- Esperienza con piattaforme di dati cloud (preferibilmente Azure)
- Comprovata capacità di redigere documentazione e procedure rigorose, chiare ed esaurienti
- Competenza nella progettazione di database
- Ottime capacità di risoluzione dei problemi e attenzione ai dettagli
- Capacità efficaci di comunicazione e collaborazione
Offriamo
Offriamo un ambiente di lavoro solidale, in cui i vostri contributi sono apprezzati e valorizzati. I nostri valori includono la promozione della diversità e dell'inclusione, al fine di favorire un processo decisionale più efficace e una maggiore innovazione.Dettagli sul lavoro