0 800 11 10 09Services & appel gratuitsDe 9h à 18h. Gratuit depuis un poste fixe.numéro vert 0 800 11 10 09 de 9h à 18h - appel gratuit depuis un poste fixe
La Poste Groupe change, nos métiers évoluent. Etre toujours au plus près des Français, développer la confiance dans le numérique et être acteur de la transformation écologique, c'est aussi le sens de notre métier. Rejoindre La Poste Groupe, c'est rejoindre une entreprise responsable, riche de ses 232 000 collaborateurs ! Pour l'égalité des chances, La Poste fait vivre la diversité. Nos postes sont ouverts à toutes et à tous. Vous aussi, engagez-vous à nos côtés pour donner du sens à votre mé
Au sein de la DSI de la branche Grand Public et Numérique, au sein de la Direction Data et IA Factory, nous recherchons un DataOps (F/H). Le périmètre applicatif de l'intervention est le suivant : · Un Datalake Cloudera en production, ingérant quotidiennement près de 550 « datasets » en provenance d'une cinquantaine de sources (froides et chaudes), supportant des usages financiers, commerciaux et opérationnels critiques pour le groupe La Poste, · Les différents environnements d'homologation, de lab datascience et de pré-production, Les outils associés (ordonnanceur, briques d'ingestion, de normalisation et de publication, applications de data visualisation, pipelines CI/CD, …). Vos principales activités seront les suivantes : · Supporter son Wagon dans les phases Build-Test-Release-support, POC, industrialisation des usages clients Big Data, · Réaliser les déploiements (Hors Socle) pour les usages du Wagon auquel il a été délégué, dans les environnements de production, · Réaliser les déploiements dans les environnements de validation, · Etre le garant, au sein de son Wagon, de la cohérence des processus CI/CD (Hors Socle) et des autres règles de conformité Data en vigueur à la Poste (RGPD), · Participation (en présentiel) aux cérémonies SAFe de son Wagon et du train DATA, · S'assurer de la bonne mesure de la capacité à traiter.
Description du profil
· Environnements distribués : Eco-système Hadoop, de préférence Cloudera, · Kafka, CFT, · Spark, · Outils de développement/déploiement/intégration : Ansible, Jenkins, Docker, Kubernetes, · Programmation : Python et connaissance des librairies, · Bases de données : Hive, MySQL, PostGreSQL, environnements distribués, · Outils de datascience : Dataiku, · Ordonnanceurs : Airflow, · Expérience Infrastructure : OpenShift, BareMetal, · Data Viz & Accelerateur: Tableau, Hue, Dremio, · Programmation : Scala, · Bases de données : Oracle, MariaDB, · Format de données Json, csv,xml, Parquet, · Jenkins, Nexus, Docker, Nginx, · Logiciel de supervision : Centreon, Dynatrace, Prometheus, Grafana, · Git / GitLab, · VMware, · Shell /Linux/Python, · Connaissance des principes RGPD, · Cyberwatch, · Azure, · AWX/Ansible ou Logiciel de Gestion de Flux de données tel NIFI, Expérience des méthodologies SAFe. De formation supérieure type BAC+5 (écoles d'ingénieurs et/ou parcours universitaires), vous avez une expérience en rapport avec les éléments décrits ci-dessous : Savoir démontrer une capacité à travailler dans un environnement Agile, Expérience supérieure à 2 ans sur les technologies On-premise, Capacité de travailler dans un environnement complexe (type grand groupe).