Critères de l'offre
Métiers :
- Data Engineer (H/F)
Secteur :
- Transports, Logistique, Courrier
Diplômes :
- Bac. Général
- + 1 diplôme
Compétences :
- Bash script
- SQL Server
- ETL
- Python
- SQL
Lieux :
- Auvergne-Rhône-Alpes
Conditions :
- Alternance / professionnalisation
- Alternance / Apprentissage
L'entreprise : SNCF
Nous sommes la fabrique numérique du Groupe SNCF. '#CheminotsDuNumérique
Avec plus de 2000 collaborateurs présents sur tout le territoire, nos équipes e.SNCF Solutions sont fières d'accompagner l'ensemble des agents du Groupe SNCF sur tous les domaines du numérique.
Notre force réside dans notre capacité à produire et à gérer des services numériques performants et sécurisés grâce à :
o Nos activités de production : Cybersécurité, Digital Workplace, Connectivités (Fibre, 5G, satellite...), Hébergement (Geocluster) et exploitation applicative mais également du Design et développement d'applications métiers, le tout s'appuyant sur un système de supervision et de gestion de crise éprouvé.
o Notre DSI Holding qui propose des solutions numériques complètes et intégrées dans le domaine applicatif des métiers RH, achats et finance, communication...
o Nos expertises numériques : Data, Intelligence Artificielle, IOT, École numérique, AR·VR, Laboratoire d'innovations et de prototypages, Sourcing logiciels...
Rejoignez-nous pour faire partie d'une équipe innovante qui façonne l'avenir de la mobilité grâce au numérique.
Description du poste
La Direction des Services Numériques aux Utilisateurs (DSNU) assure de bout en bout auprès des entités clientes une offre d'équipements et utilitaires : devices, services, assistance. Elle travaille en collaboration avec les directions numériques pour développer une offre adaptée aux exigences métier.
En étroite collaboration avec l'équipe, nous vous proposons de vous accompagner dans les missions suivantes :
-
Manipulation d'un environnement cloud Azure, principalement des services data(Datafactory, Databricks, Storage Account...)
-
Prise en main et maitrise d'un ETL
-
Création et modification de scripts et notebook en Python (Pyspark principalement)
-
Intégration API externes comme sources de données
-
Optimisation des sources de données existantes
Technologies :
Azure, Datafactory, Databricks, Python (pyspark), SQL, API, SQLServer(SCCM), Git
Description du profil
Si vous êtes étudiant.e, préparant un diplôme de niveau BAC+5 dans le domaine de l'informatique (Data idéalement), alors, rejoignez-nous en postulant à cette offre d'alternance !

