Critères de l'offre
Métiers :
- Data Engineer (H/F)
Secteur :
- Transports, Logistique, Courrier
Diplômes :
- Bac. Général
- + 2 diplômes
Compétences :
- KAFKA
- ETL
- Python
- SQL
Lieux :
- Lille (59)
Conditions :
- Alternance / professionnalisation
- Alternance / Apprentissage
L'entreprise : SNCF
Nous sommes la fabrique numérique du Groupe SNCF. '#CheminotsDuNumérique
Avec plus de 2000 collaborateurs présents sur tout le territoire, nos équipes e.SNCF Solutions sont fières d'accompagner l'ensemble des agents du Groupe SNCF sur tous les domaines du numérique.
Notre force réside dans notre capacité à produire et à gérer des services numériques performants et sécurisés grâce à :
o Nos activités de production : Cybersécurité, Digital Workplace, Connectivités (Fibre, 5G, satellite...), Hébergement (Geocluster) et exploitation applicative mais également du Design et développement d'applications métiers, le tout s'appuyant sur un système de supervision et de gestion de crise éprouvé.
o Notre DSI Holding qui propose des solutions numériques complètes et intégrées dans le domaine applicatif des métiers RH, achats et finance, communication...
o Nos expertises numériques : Data, Intelligence Artificielle, IOT, École numérique, AR·VR, Laboratoire d'innovations et de prototypages, Sourcing logiciels...
Rejoignez-nous pour faire partie d'une équipe innovante qui façonne l'avenir de la mobilité grâce au numérique.
Description du poste
La Direction Exploitation Applicative (DEA) intervient de l'intégration au développement des outils métiers. Elle est organisée autour des objectifs de production de ses clients internes (activités du groupe SNCF). Elle accompagne, pilote et maintient l'exploitation des services délivrés, en mode Build & Run, tout en renforçant l'accompagnement auprès des DSI
Au sein de la SNCF, la gestion et la sécurité des flux réseau constituent un enjeu majeur pour garantir la continuité et la sécurité de nos systèmes d'information. Face à l'évolution constante de notre SI et aux exigences réglementaires croissantes, nous devons développer une solution innovante pour assurer la traçabilité et la légitimité des flux réseau dans le temps.
En étroite collaboration avec l'équipe, nous vous proposons de vous accompagner dans les missions suivantes :
-
Vous réaliserez une étude approfondie des besoins en matière d'analyse temps réel, d'analyse historique et de traçage de l'évolution du réseau du SI, en identifiant les problématiques techniques et métier à résoudre.
-
Vous modéliserez les flux réseau en définissant leurs caractéristiques clés et en consolidant les données des différents référentiels en un modèle commun.
-
Vous concevrez l'architecture globale de la plateforme d'audit en intégrant des sources de données hétérogènes : configurations et logs des firewalls, documents texte avec captures d'écran, tableurs Excel et fichiers JSON.
-
Vous mettrez en place un système d'historisation permettant d'observer l'évolution des ouvertures de flux au fil du temps.
-
Vous évaluerez et sélectionnerez les briques technologiques adaptées pour le pipeline ETL (Airflow, Kafka, Databricks, Delta Lake, etc.) et définirez l'architecture de traitement la plus pertinente (batch, micro-batch ou architecture lambda).
-
Vous réaliserez des POCs pour valider les choix techniques, puis vous auditerez les solutions envisagées en évaluant leur coût de mise en oeuvre, leur maintenabilité sur le long terme (+10 ans) et la pérennité des projets open source, avant de rédiger des recommandations argumentées pour guider les décisions stratégiques du projet.
Description du profil
Si vous êtes étudiant.e, préparant un diplôme de niveau BAC+5/Master dans le domaine de l'informatique (Data idéalement), alors, rejoignez-nous en postulant à cette offre d'alternance !
Compétences associée s:
-
Modélisation de données et architectures de données
-
Big Data et pipelines ETL
-
Python, SQL
-
Réseaux et cybersécurité (couche OSI, firewalls, flux réseau)

