Date et heure de dépôt : 13/11/2025 11:37:00
Référence : 222684
DÉBUT
ASAP
BUDGET
selon profil € HT / jour
DURÉE
36 mois
LIEU
IDF
Hybride
CATÉGORIE TECHNIQUE
Systèmes (Infras, Cloud, DevOps, ...), réseaux, sécurité
Datalake
Confirmé
ETL
Confirmé
Je suis à la recherche d'un architecte data.
Vous participerez à la mise en place de la conception et de la mise en œuvre d'architectures optimisées et scalables au sein d'une plateforme data, analytics basée sur des technologies cloud Lakehouse. Ce poste nécessite une compréhension approfondie du data management, des technologies cloud et des pratiques modernes d'analytics.
Les missions sont les suivantes :
Participer à la définition et la mise à jour des cadres de référence d’architecture assurant la convergence et l’alignement des capacités et usages de la plateforme Data vers sa cible technologique et architecturale,
Vous serez en charge de la rédaction des notes d’architecture et des dossiers d’architecture pour les projets
Collaborer avec les équipes data (Data Engineer, Data Analyst, Data Scientist, Business Analyst, Product Owner, Chef de projet, etc.) pour comprendre les exigences en matière de données, d'usages et de capacités et concevoir et formaliser l’architecture adaptée
Aider les équipes data à la mise en œuvre et la maintenance des architectures
Assurer la qualité, l'intégrité et la sécurité des données dans l'environnement de la plateforme data, analytics
Optimiser les processus d'ingestion de données et définir les politiques de gouvernance des données
Évaluer et sélectionner les technologies et outils appropriés pour le stockage, le traitement et l'analyse des données
Proposer des optimisations et résoudre les problèmes liés au stockage et à l'accès aux données
Profil recherché :
Expérience minimale de 6 ans sur un poste d’architecte data
Excellente connaissance des concepts et technologies des datalake / lacs de données, des datawarehouse/entrepôts de données
Connaissances sur les plateformes cloud telles qu'AWS ou Google Cloud serait apprécié
Expérience des processus ETL et ELT et streaming, de la modélisation des données et de la gouvernance des données
Familiarité avec les concepts et technologies liés au Big Data (par exemple, Apache Spark, Hadoop) et aux bases de données SQL/NoSQL
Coopérer et fonctionner en transversal
Communiquer avec aisance à l’écrit et à l’oral
Proposer des initiatives ou des solutions
Travailler en équipe
Apache
AWS
ETL
GCP
Hadoop
NoSQL
SQL
DATALAKE
ELT