Date et heure de dépôt : 20/01/2025 20:41:04
Référence : 220340
DÉBUT
ASAP
BUDGET
400 € HT / jour
DURÉE
242 jours
LIEU
Villeneuve D'ascq
Hybride
CATÉGORIE TECHNIQUE
Etudes et développement (.NET, Java, PHP, ...)
Expertise SQL
Expert
ETL
Expert
Github
Confirmé
Power BI
Confirmé
Au cours de sa mission, le consultant :
- Participera aux rituels agiles de l'équipe,
- Analysera les besoins des utilisateurs et proposera des solutions innovantes et en phase avec les drivers de l'entreprises,
- Développera les solutions data (Alimentation, stockage, modélisation, restitution),
- Validera la qualité des développements de son équipe,
- Améliorera et optimisera le patrimoine actuel de son équipe,
- Maintiendra les solutions existantes (Run),
- Contribuera à la construction du nouveau socle et des services sur la plateforme Google Cloud,
- Accompagnera et acculturera les métiers sur les bonnes pratiques de l'exploitation de la Data
SA MISSION :
Il est garant de l'accès qualitatif aux sources de données.
Il s'assure de la maîtrise de la donnée et est garant de la qualité de son utilisation (référencement, normalisation, et qualification) afin d'en faciliter l'exploitation par les équipes (Data Analysts et Data Scientists).
Il contribue également à la définition de la politique de la donnée et à la structuration de son cycle de vie dans le respect des réglementations en vigueur, en collaboration avec le Chief Data Officer.
Son périmètre d'intervention est axé sur les systèmes applicatifs autour de la gestion de la donnée et du traitement, et sur les plateformes Big Data, IoT,
Il assure la supervision et l'intégration des données de diverse nature qui proviennent de ces sources multiples et vérifie la qualité des données qui entrent dans le Data Lake (il recette de la donnée, supprime les doublons, ).
SON ACTIVITE :
QUALIFICATION ET GESTION DES DONNÉES :
- Capte les données (structurées et non structurées) produites dans les différentes applications ou à l'extérieur de l'entité
- Intègre les éléments
- Structure la donnée (sémantique, etc.)
- Cartographie les éléments à disposition
- Nettoie la donnée (élimination des doublons, )
- Valide la donnée
- Éventuellement, il crée le référentiel de données
SES LIVRABLES :
- Data Lake approprié et partagé et son dimensionnement
- Cartographie des données
- Les éléments permettant de garantir la qualité de la donnée
CI/CD
ETL
Github
Google Cloud Platform
Kafka
Power BI
SQL
Terraform
Looker