AG2R LA MONDIALE : INGENIEUR SOCLE BIG DATA GCP (F/H)

Poste
CDI - Cadre
Niveau d'étude
Bac+5 (Master / Ingénieur)
Univers
Banque et assurance
Localisation
Esvres sur Indre (37, Indre-et-Loire)

Inscrivez-vous !

En vous inscrivant sur Engagement Jeunes, recevez les offres qui vous correspondent et rendez vous visible des recruteurs.

Missions

A ce titre, vous contribuerez aux développements des différentes capacités techniques mises à disposition des équipes de développement Métier, permettant :

  • d’intégrer des données en provenance de différents types de sources, dans le DataHub,
  • de transformer ces données sur le DataHub,
  • d’exposer ces données pour différents types d’exploitation (API, outils BI, mise à disposition de données vers des applications externes) ,

en respectant les normes, prinipes et patterns construits avec les architectes fonctionnels et techniques et en répondant aux exigences d’industrialisation, de sécurisation, de logs & de supervision.

Vous participerez également aux activités :

  • de Support & Assistance aux utilisateurs de la plateforme sur les capacités du Socle,
  • de Développement de prototypes sur de nouvelles capacités mises en œuvre sur GCP,
  • de type DevOps, sur les aspects CI/CD, Terraform, automatisation des tests,
  • en lien avec le FinOps, en contribuant à la mise en place d’actions en rapport avec le monitoring, la supervision et l’optimisation des services sur la plateforme.

Finalité du poste

Rattaché(e) au Service Data Hub, au sein du Département « Solution Data et Usages » de la Direction des Systèmes d'Information et du Digital, vous contribuerez à la construction de la plateforme Data Hub sur GCP (S3ns) .

Vous participerez à la mise en œuvre du Framework technique sur GCP, à sa maintenance et à son optimisation, dans le respect des principes, règles et normes du Groupe.

Vous vous inscrirez dans un mode de fonctionnement Agile, à l’intérieur du Train Data (SAFe) , dans un contexte de transformation fort et ambitieux pour l'ensemble du groupe AG2R La Mondiale (Programme de Plateformisation) .

Profil recherché

attendues

De formation supérieure en informatique (BAC+5) , vous avez enrichi vos connaissances pendant au moins 3 ans dans le cadre de votre parcours professionnel, avec des expériences significatives dans le développement de pipelines de données (batch, microbatch et événementiel) , de préférence sur des plateformes Big Data Cloud, idéalement GCP, et le développement de composants génériques de Framework.

Vous maitrisez :

  • Python et SQL/ BQL
  • Plusieurs services GCP : BigQuery (Mise en œuvre & Optimisation (partitionnement, clustering)) , Cloud Storage, Dataflow, Composer, PubSub, Cloud Logging, Cloud Run, Cloud Functions.
  • Terraform, GitLab, Jenkins/Cloudbees

Compétences complémentaires appréciées :

  • Certifications GCP Data Engineer
  • Docker, GKE, Cloud KMS, BigTable, Firestore, Dataplex, Analytics Hub.
  • Connaissance d’outils ETL/ELT (DBT, Semarchy, Talend, …) et d’outils BI / Datavizualization.

Qualités requises

Vous vous caractérisez par votre rigueur, votre capacité d’écoute et d’analyse, votre sens du service et vous faites preuve de pédagogie.

Doté(e) d'ouverture d'esprit et de curiosité, vous avez de bonnes qualités relationnelles et de communication écrite et orale.

Vous savez travailler en équipe, en mode collaboratif, Agile.

Vous êtes proactif(ve) et dynamique.

Le poste peut être basé à Esvres (Tours) ou à Paris.