Critères de l'offre
Métiers :
- Développeur Big Data (H/F)
- + 1 métier
Expérience min :
- 3 à 10 ans
Secteur :
- Information, Communication, Publicité, Edition
Diplômes :
- Bac+5, type DEA - DESS
- + 2 diplômes
Compétences :
- Anglais
Lieux :
- Paris 11 (75)
Conditions :
- CDI
- Temps Plein
- Télétravail partiel
- Déplacements occasionnels exigés
L'entreprise : JAKALA
JAKALA est un cabinet de conseil, leader européen en stratégie data & IA pour le marketing, intervenant sur le conseil et la transformation métier, la mise en place de d’infrastructures technologiques et la gestion de plateformes.
La mission de JAKALA est d’aider ses clients à tirer un avantage concurrentiel mesurable via une exploitation durable des données et des technologies.
Fondé en Italie en 2000 par Matteo de Brabant, JAKALA est aujourd’hui présent dans 20 pays et compte 3000 collaborateurs.
JAKALA s’est implanté en France en 2023, s’appuyant sur des entrepreneurs expérimentés qui impriment un esprit start-up, tout en bénéficiant du soutien d’un groupe international.
Avec près de 250 consultants à fin 2025 JAKALA est dans une dynamique de croissance forte qui nécessite une forte capacité d’initiative et une volonté de construire !
Description du poste
Au sein de notre practice Data & AI et en tant que Data Ops Engineer, tu joues un rôle clé dans la fiabilité, l’automatisation et la performance des pipelines de données.
Tu fais le lien entre les équipes Data Engineering, DevOps et les métiers pour assurer un accès fluide, sécurisé et optimisé aux données.
Tes missions incluent :
-
Déploiement et maintien des pipelines de données robustes (ETL/ELT) et environnements (intégration, recette, production)
-
Supervision de la qualité, la sécurité et la disponibilité des données dans les environnements Cloud (AWS / GCP / Azure).
-
Automatisation du déploiement des traitements et des modèles de données (CI/CD).
-
Monitoring et le support des jobs de production.
-
Participation à la définition et au suivi des standards DataOps (versioning, tests, documentation, etc.).
-
Collaboration avec les équipes Data Engineering, Data Science et IT pour garantir la scalabilité et la performance des solutions déployées.
-
Optimisation des coûts d’infrastructure liés à la donnée.
-
Documentation des procédures, flux de données et configurations.
Tu joues un rôle crucial dans le succès de nos clients et dans le développement de notre culture en France. Tu contribues à renforcer notre réputation en tant qu’experts.
Ensemble, nous relèverons les plus grands défis de nos clients, anticiperons les tendances futures et créerons des solutions innovantes à l’échelle globale !
Compétences requises :
Techniques :
-
Déploiement en environnement Cloud (GCP, AWS, Azure), en particulier des Datawarehouses tels que BigQuery, Snowflake ou Databricks.
-
Principes CI/CD (Github action, Gitlab CI, Azure Devops) et de l’Infrastructure as Code (Terraform, Ansible, Docker, Kubernetes).
-
Outils de monitoring (Prometheus, Grafana, etc.) et de gestion des logs (ELK, Datadog…).
-
Outils d’orchestrations Airflow, Azure Data Factory, GCP Composer, Databricks workflow …
Serait un plus :
-
Connaissance des outils de traitement de données : dbt, Spark, Kafka, etc.
-
Compétences en SQL, Python
Fonctionnelles :
-
Compréhension des problématiques métiers autour de la donnée (data quality, sécurité, gouvernance).
-
Capacité à collaborer avec des profils variés (techniques et non-techniques).
Description du profil
Fort·e d’une expérience réussie de 5 ans minimum dans un environnement DataOps, DevOps ou Data Engineering.
-
Idéalement une expérience en cabinet de conseil - sur des projets liés à nos expertises : data & IA use cases, data architecture
-
Tu as des capacités à travailler de manière autonome et en équipe.
-
Tu as d’excellentes compétences en communication et en présentation avec la capacité de formaliser et vulgariser ses résultats auprès d’un public non expert.
-
Tu es une personne enthousiaste, dynamique, curieuse, rigoureuse et sachant faire preuve de force de proposition et de conviction.
-
Tu es passionné·e par ton métier et tu aimes le partager.
-
La maîtrise de l’anglais est appréciée.
Nous recherchons quelqu’un qui est passionné·e par la data, qui a une bonne curiosité intellectuelle et un goût pour l’innovation et la collaboration.

