Alternance - Data Quality Analyst (F/H)SUEZ
Critères de l'offre
Métiers :
- Data analyst (H/F)
Secteur :
- Environnement, Eau, Energie
Diplômes :
- Diplôme de grande école d'ingénieur
Compétences :
- Déploiement
- ETL
- Python
Lieux :
- Puteaux (92)
Conditions :
- Alternance / professionnalisation
- Alternance / Apprentissage
Description du poste
Alternance - Data Quality Analyst (H-F)
Paris, la Défense
Sousla responsabilité du responsable de la Data Governance, le Data Office Suez rechercheun Data Quality analyst pour participer à la mise en place et l'alimentation dela Data Quality Platfrom.
Objectifs de la mission :
Participer aux initiativesde mise en qualité des données en travaillant à la fois sur la webapp pythonStreamlit et sur la partie ingestion des données depuis les systèmes sources,tout en collaborant avec les data managers responsables des données enquestion.
Vos principales missions :
Collaboration avec les DataManagers :
Définition des Data Quality Rules
Analyse des Data sets
Développement :
Ingestion des données dans la Data Quality Platfrom (ETL)
Création des écrans sur la webapp (python/Streamlit)
Création des script python pour (exemples) :
Validation des données
Déduplication
Nettoyage et normalisation des adresses Postales
Contactabilité des adresses mails
Détection et gestion des valeurs Manquantes
Identification des valeurs manquantes dans les datasets ( et proposer des solutions d'imputation ou de suppression)
Normalisation des données
Validation de données spécifiques
Analyse de Qualité des Données
Automatisation et Déploiement
Génération de données à uploader dans les systèmes
Documentation :
Documentation des scripts développés et former les Data Managers au sein des Data Domains sur leur utilisation et leur maintenance.
Rédaction de procédure de réutilisation des scripts
Description du profil
Profil recherché :
Ecole d'ingénieur
Des connaissances académiques sur la gestion de la donnée (ETL, pyhton, …)
Maitrise des outils ETL, idéalement Azure Data Factory (ou autre)
Familiarité avec l'utilisation d'API pour la validation et la normalisation des données.