Data Engineer (IT) / Freelance
Traitement d?activités de support / maintenance corrective
Veille et optimisation technique (architecture, fiabilisation, optimisation financière (finops)) Applique les normes de qualités
Compétences techniques
SQL / GCP BQ - Expert - Impératif
CI / CD - Confirmé - Impératif
Python - Expert - Impératif
SonarQube, CloudCraft, DataDog - Confirmé - Important
Connaissances linguistiques: Anglais Professionnel (Impératif)
Description détaillée
Produit PMAGGENonGCP basé sur les technologies et modules Google Cloud Platform (BigQuery, Terraform, IAM, PubSub, Cloud Storage, Cloud Scheduler, ?) et permettant de :
- Consolider, intégrer et exposer les données de l?ensemble des entités du groupe Adeo
- Diffuser certains reportings communs aux différentes entités du groupe
Au sein d?une équipe de 3-4 personnes, réalisation des activités suivantes :
-Traitement d?activités de support / maintenance corrective
-Analyse et cadrage technique des différents besoins ou problématiques remontées par les BUs
-Réalisation et maintien de la documentation technique du produit (Spécification technique, dossier d?architecture, etc?)
-Réalisation des développements du produit (Modules GCP, Terraform, Python, BigQuery)
-Veille et optimisation technique (architecture, fiabilisation, optimisation financière (finops))
-Applique les normes de qualités définies pour le groupe Adeo
Compétences souhaitées :
-Comportementales / Fonctionnelles :
-Communication, esprit de services et dynamisme
-Gestion des priorités
-Esprit d?analyse
-Langage et concepts du domaine de la DATA
Techniques :
-Maîtrise de GCP et de ses différents modules
-Maîtrise des requêtes BigQuery
-Maitrise de la chaîne de développement / déploiement (chaine CI/CD)
-Connaissance de Python
-Connaissances souhaitées sur les outils : GitHub, SonarQube, CloudCraft, DataDog
Autres
-Anglais : Autonome
Profil candidat:
SA MISSION :
Il est garant de l'accès qualitatif aux sources de données.
Il s'assure de la maîtrise de la donnée et est garant de la qualité de son utilisation (référencement, normalisation, et qualification) afin d'en faciliter l'exploitation par les équipes (Data Analysts et Data Scientists).
Il contribue également à la définition de la politique de la donnée et à la structuration de son cycle de vie dans le respect des réglementations en vigueur, en collaboration avec le Chief Data Officer.
Son périmètre d'intervention est axé sur les systèmes applicatifs autour de la gestion de la donnée et du traitement, et sur les plateformes Big Data, IoT,
Il assure la supervision et l'intégration des données de diverse nature qui proviennent de ces sources multiples et vérifie la qualité des données qui entrent dans le Data Lake (il recette de la donnée, supprime les doublons, ).