Critères de l'offre
Métiers :
- Data analyst (H/F)
- + 1 métier
Expérience min :
- 3 à 10 ans
Secteur :
- Informatique, Internet, Télécoms, Conseil en informatique
Diplômes :
- BEPC - Brevet des collèges
- + 18 diplômes
Compétences :
- Français
- Permis B
Lieux :
- Saint-Herblain (44)
Conditions :
- CDI
- Temps Plein
- Télétravail partiel
- Aucun déplacement à prévoir
L'entreprise : RCA
Éditeur de logiciels 100% autonome, basé à Saint-Herblain, RCA développe deux gammes de logiciels : Une gamme de 13 modules à destination des cabinets d’expertise comptable et une plateforme digitale collaborative en mode SaaS destinée aux experts-comptables ainsi qu’à leurs clients (TPE).
Description du poste
Tu rejoindras l’équipe Data de RCA, composée de 16 personnes (Data Engineers, Data Analyst, Data Sientist, PM, développeurs, etc.), au cœur de nos enjeux produit, cloud et performance.
Ton rôle : concevoir, faire évoluer et maintenir nos pipelines data pour servir à la fois nos utilisateurs internes (outils d’aide à la décision) et nos clients externes (API exposées à destination des experts-comptables).
Tes missions :
- Concevoir des pipelines batch & streaming robustes, scalables et maintenables
- Participer à la migration vers un traitement en temps réel (Kafka)
- Dockeriser les environnements Python et les intégrer aux pipelines CI/CD
- Concevoir et mettre en œuvre des architectures data
- Déployer des composants AWS avec Terraform en lien avec l’équipe plateforme (IAM, S3, EKS, ECS, etc.)
- Participer à la mise en place d’une observabilité Data (logs, qualité, monitoring)
- Accompagner les Data Analysts & PM dans l’industrialisation des solutions
- Travailler dans une logique "data as a product" : forte proximité avec les usages
Stack & Environnement :
- Cloud : AWS (IAM, S3, RDS, EKS, ECS, DMS…)
- Data Engineering : Airflow, DBT, Kafka, Terraform
- Développement : Python (Poetry, Pytest, Black), SQL
- Stockage : Snowflake, PostgreSQL
- CI/CD : GitLab CI
- BI : Holistics, ThoughtSpot
- ML Ops : début d’implémentation, présence d’un Data Scientist + Ingénieur ML
Enjeux & projets :
- Migration progressive vers du streaming (Kafka)
- Mise en place de solutions d’observabilité et de gouvernance data
- Automatisation et montée en puissance sur les sujets MLOps / IA générative
- Vision produit forte : la donnée est un levier métier et business clé
Description du profil
Profil :
- 3 à 6 ans d’expérience en Data Engineering
- Une bonne maîtrise d' AWS
- Connaissance de Snowflake, Airflow, Terraform, Kafka appréciée
- Intérêt pour les enjeux Ops : CI/CD, monitoring, performance
- À l’aise en environnement collaboratif, agile, avec une forte autonomie

