Critères de l'offre
Métiers :
- Data Engineer (H/F)
- + 1 métier
Expérience min :
- débutant à 2 ans
Secteur :
- Banque, Finance, Assurances
Diplômes :
- Diplôme de grande école d'ingénieur
- + 1 diplôme
Compétences :
- SQL tuning
- Hdfs
- Python
- Kibana
- Jenkins
- + 4 compétences
Lieux :
- Paris 13 (75)
Conditions :
- Alternance / Apprentissage
- Temps Plein
L'entreprise : Groupe BPCE
Rejoignez une entreprise au cœur des activités du Groupe BPCE, de ses évolutions et de son développement.
Organe central du groupe, BPCE SA définit la politique et les orientations stratégiques du groupe et de chacun des deux réseaux Banque Populaire et Caisse d'Epargne, en cohérence avec son projet « Vision 2030 ».
Les missions confiées à nos collaborateurs offrent une vision transversale des enjeux économiques et stratégiques du groupe.
Organe central du groupe, BPCE SA définit la politique et les orientations stratégiques du groupe et de chacun des deux réseaux Banque Populaire et Caisse d'Epargne, en cohérence avec son projet « Vision 2030 ».
Les missions confiées à nos collaborateurs offrent une vision transversale des enjeux économiques et stratégiques du groupe.
Description du poste
Poste et missions
Rejoignez BPCE en tant que Data Engineer Spark & Cloud pour une alternance à partir de Septembre 2026 !
Vous intégrez la Direction Technologies & Opérations et plus particulièrement l'équipe D&R/Assets et projets data : une équipe data dynamique en croissance, responsable de la collecte, du traitement et de l'analyse de grandes volumes de données.
Vous aurez pour rôle de :
Participer à la conception et à la mise en œuvre de solutions data cloud-native et on-premise, en collaboration avec les Data Engineers et les équipes IT.
Vous aurez à prendre en charge une partie des développements sur des projets Data de l'équipe.
Concrètement votre quotidien ?
En collaboration avec votre tuteur (profil tech lead), vous évoluerez sur les missions suivantes :
- Concevoir, développer et maintenir des flux de données (ETL/ELT) utilisant Spark (PySpark/Scala) pour le traitement de données en batch et en streaming.
- Travailler avec Hadoop (HDFS, MapReduce, YARN) et les écosystèmes associés (Hive, HBase, Pig) pour l'ingestion, le stockage et l'interrogation des données.
- Intégrer et orchestrer les pipelines de données sur Google Cloud Platform (GCP): BigQuery, Dataflow, Dataproc, Cloud Storage, Pub/Sub, IAM/Security.
- Participer à la modélisation et à l'optimisation du schéma de données (OLAP/OLTP) et à la gestion des métadonnées (catalogue, lineage).
- Garantir la qualité des données et la traçabilité (tests unitaires, tests d'intégration, monitoring des pipelines, gestion des exceptions)
- Assurer les aspects sécurité et conformité des données (accès, chiffrement, logs, audit).
Rejoignez BPCE en tant que Data Engineer Spark & Cloud pour une alternance à partir de Septembre 2026 !
Vous intégrez la Direction Technologies & Opérations et plus particulièrement l'équipe D&R/Assets et projets data : une équipe data dynamique en croissance, responsable de la collecte, du traitement et de l'analyse de grandes volumes de données.
Vous aurez pour rôle de :
Participer à la conception et à la mise en œuvre de solutions data cloud-native et on-premise, en collaboration avec les Data Engineers et les équipes IT.
Vous aurez à prendre en charge une partie des développements sur des projets Data de l'équipe.
Concrètement votre quotidien ?
En collaboration avec votre tuteur (profil tech lead), vous évoluerez sur les missions suivantes :
- Concevoir, développer et maintenir des flux de données (ETL/ELT) utilisant Spark (PySpark/Scala) pour le traitement de données en batch et en streaming.
- Travailler avec Hadoop (HDFS, MapReduce, YARN) et les écosystèmes associés (Hive, HBase, Pig) pour l'ingestion, le stockage et l'interrogation des données.
- Intégrer et orchestrer les pipelines de données sur Google Cloud Platform (GCP): BigQuery, Dataflow, Dataproc, Cloud Storage, Pub/Sub, IAM/Security.
- Participer à la modélisation et à l'optimisation du schéma de données (OLAP/OLTP) et à la gestion des métadonnées (catalogue, lineage).
- Garantir la qualité des données et la traçabilité (tests unitaires, tests d'intégration, monitoring des pipelines, gestion des exceptions)
- Assurer les aspects sécurité et conformité des données (accès, chiffrement, logs, audit).
Description du profil
Vous préparez un Master sur 1/2 ans ou êtes en 2ème/ 3ème année de cycle Ingénieur avec une spécialisation Développement / Data.
Idéalement, vous avez déjà acquis une 1ère expérience dans ce domaine en stage / alternance.
Pour réussir votre mission, vous avez acquis ou évoluez sur un environnement technique comme :
- Spark: PySpark ou Spark SQL; notions de performance et tuning.
- Langages : Python (indispensable), Scala serait un plus ; SQL avancé (indispensable).
- Hadoop: HDFS, MapReduce, YARN; expérience avec Hive/Impala est un plus.
- GCP : expérience pratique avec Dataflow/Dataproc, BigQuery, Cloud Storage;
- connaissance des pipelines Ingest/ETL sur GCP.
- Outils : Airflow (ou autre orchestrateur), Git, Jenkins ou équivalent CI/CD, outils de monitoring (Prometheus, Grafana) souhaités.
Vous êtes par ailleurs reconnu pour vos capacités d'analyse et esprit critique.
Enfin, vous possédez un excellent relationnel qui vous permettra de travailler en transverse et d'instaurer des relations de qualité.
Idéalement, vous avez également des notions de sécurité des données, confidentialité et gouvernance.
Saurez-vous relever le challenge ? N'attendez plus, rejoignez-nous !
Idéalement, vous avez déjà acquis une 1ère expérience dans ce domaine en stage / alternance.
Pour réussir votre mission, vous avez acquis ou évoluez sur un environnement technique comme :
- Spark: PySpark ou Spark SQL; notions de performance et tuning.
- Langages : Python (indispensable), Scala serait un plus ; SQL avancé (indispensable).
- Hadoop: HDFS, MapReduce, YARN; expérience avec Hive/Impala est un plus.
- GCP : expérience pratique avec Dataflow/Dataproc, BigQuery, Cloud Storage;
- connaissance des pipelines Ingest/ETL sur GCP.
- Outils : Airflow (ou autre orchestrateur), Git, Jenkins ou équivalent CI/CD, outils de monitoring (Prometheus, Grafana) souhaités.
Vous êtes par ailleurs reconnu pour vos capacités d'analyse et esprit critique.
Enfin, vous possédez un excellent relationnel qui vous permettra de travailler en transverse et d'instaurer des relations de qualité.
Idéalement, vous avez également des notions de sécurité des données, confidentialité et gouvernance.
Saurez-vous relever le challenge ? N'attendez plus, rejoignez-nous !
Référence : BPCE05802_177271749882728

