Critères de l'offre
Métiers :
- Data scientist (H/F)
Expérience min :
- 3 à 5 ans
Secteur :
- Information, Communication, Publicité, Edition
Diplômes :
- Bac+5
- + 1 diplôme
Compétences :
- Anglais
Lieux :
- Paris 11 (75)
Conditions :
- CDI
- Temps Plein
- Télétravail partiel
- Déplacements occasionnels exigés
L'entreprise : JAKALA
JAKALA est une société leader européenne dans les métiers du conseil de la transformation data, IA et stratégies marketing.
Fondée en Italie en 2000 par Matteo de Brabant, JAKALA se positionne dès ses débuts comme pionnière en combinant marketing et technologie pour révolutionner les domaines de l’engagement, de la fidélisation et des incentives collaborateurs.
Aujourd’hui présente dans 20 pays et comptant 3000 collaborateurs, JAKALA a étendu ses activités en France en 2023.
La mission de JAKALA est d’aider ses clients à tirer un avantage concurrentiel mesurable via une exploitation durable des données et des technologies.
Nous concevons et déployons des solutions qui visent à créer une valeur ajoutée tangible, optimiser les investissements marketing et technologiques et améliorer l’expérience client.
JAKALA déploie son offre sur 3 piliers :
-
Marketing & Data Consulting
-
Data & AI Tech
-
E-com & Plateforms
En interne, toutes les initiatives sont valorisées : les idées, les avancées techniques et la montée en compétences, le tout dans une ambiance challengeante et bienveillante.
Description du poste
Nous sommes à la recherche d’un·e Machine Learning / MLOps Engineer pour rejoindre notre Practrice Data & AI, afin de participer au développement, à la conception, au déploiement et à la maintenance d’infrastructures et services Data stratégiques.
En tant que ML / MLOps Engineer au sein d’un environnement dynamique et à forte technicité, tu assures la conception et la mise en œuvre d’architectures Data/ML pour le déploiement et l’industrialisation de modèles ML.
Tes missions au quotidien :
-
Etudier et mettre en place les meilleures solutions techniques pour gérer de grands volumes de données, de la collecte de données d’entraînement jusqu’au déploiement en production
-
Industrialiser les modèles Machine Learning et assurer leur mise en production selon les standards de qualités définis en interne
-
Maîtriser la qualité du code mis en production pour assurer le run (Git, évaluation de performance de modèle)
-
Travailler en collaboration avec l’équipe Data (Data Engineer, Data Scientist, PO Data) pour intégrer des modèles ML en tant que livrables dans un produit ou un projet
-
Gérer l’environnement Big Data (GCP/AWS/Azure, au choix) et d’en assurer la stabilité et l’optimisation dans le cadre des projets Data inscrits dans la Roadmap
-
Mettre en place les pipeline de CI/CD de projets ML
-
Automatiser le processus de structuration de la DATA en amont de l’intervention d’un Data Scientist (création et maintenance du code)
-
Concevoir et automatiser le processus de structuration de la DATA et des outils nécessaires permettant aux experts de l’équipe un accès facile aux données pour développer les cas d’usage métier (Data science/IA, Reporting, Analytics, Activation média, …)
-
Être l’interlocuteur privilégié de l’équipe projet et avant-projet pour les infrastructures ML
-
Assurer avec l’IT le processus de qualité et la fiabilité des flux de données (scalabilité, sécurité, performance, recovery) en conformité avec les standards définis au niveau projet
-
Assurer la rédaction et la maintenance d’une documentation claire sur les différents projets développés
-
Évaluer l’architecture et l’environnement Data actuels et prévoir des mises à jour nécessaires selon les besoins de l’équipe
-
Développer les APIs/ connecteurs nécessaires pour intégrer notre DATA dans les environnements cibles
Compétences techniques :
-
Maîtrise des environnements Cloud GCP et AWS
-
Langages Python, Terraform, SQL
-
Modélisation, traitement et transformation des données complexes et multi-sources
-
Conception et déploiement d’une architecture distribuée pour le traitement de données
-
Maîtrise des aspects d’authentification, de sécurité, de containerisation et d’orchestration
-
Maîtrise des technologies: Base de données (SQL, noSQL, BigQuery, Snowflake), Suite ELK, Queue de messages (rabbitMQ, Kafka, …), Containerization (Docker, Kubernetes), Ordonnancement (Airflow)
-
Expertise sur l’utilisation et le déploiement d’outils ML tel que MLFlow ou Kubeflow
-
Maîtrise des différentes librairie Python ML et data : tensorFlow, keras, scikit-learn, pandas, numpy
-
Maîtrise des outils Web-services Python : FastAPI, Flask, Dash
-
Connaissances et veille active sur les outils de qualité de code en Python (pylint, mypy, flake8…) : black, flake8, mypy, pylint, pytest
Compétences générales :
-
Génération et vérification de code de production haute qualité
-
Architecture logicielle
-
Architecture Cloud
-
Capacités de restitution, accompagnement et conseil client
-
Mise en place d’outils d’aide au développement et déploiement de projet Data Science
-
Automatisation GitLab
Description du profil
Diplômé·e d’études supérieures dans les Système d’Information, Computer Sciences, Big Data (école d’Ingénieurs, école spécialisée ou équivalent universitaire Bac+5), tu as au moins 3 ans d’expérience en ML Ops, Data Architecture, ou a minima Data Ingénierie.
Tu as une forte culture Data Science, idéalement une pratique en Machine Learning.
Passionné·e de la data en particulier les enjeux d’industrialisation des modèles ML, tu possédes les qualités suivantes :
-
Esprit d’équipe et sens de l’écoute.
-
Autonomie et proactivité.
-
Curiosité et créativité.
-
Sens relationnel et capacité d’adaptation
-
Rigueur
-
Esprit d’analyse
Tu es communiquant et possèdes un très bon relationnel.
Tu comprends les avantages et inconvénients des outils, et tu sais choisir les solutions en fonction des besoins clients pour en tirer le meilleur.

