Critères de l'offre
Métiers :
- Ingénieur de recherche appliquée (H/F)
Secteur :
- Informatique, Internet, Télécoms, Conseil en informatique
Diplômes :
- Doctorat
Compétences :
- C++
- Python
Lieux :
- Limonest (69)
Conditions :
- CDI
L'entreprise : BERGER LEVRAULT
Berger-Levrault, éditeur de logiciels international, accompagne les professionnels privés et publics à répondre aux exigences croissantes de performance et de transformation de leurs métiers. Ancrés dans 5 siècles d'expertise du service public, inspirés par notre ADN d'inventeur, nous avançons dans l'intérêt général, partout où nous sommes présents.
Le Groupe étend son expertise métier dans les domaines des ressources humaines, de la gestion financière, de la gestion de la maintenance des infrastructures, ainsi que des solutions spécifiques destinées aux citoyens, aux établissements scolaires et de santé. Berger-Levrault c'est 2000 collaborateurs réunis autour de plusieurs marques (CARL Software, Aytos, Absis, Segilog, Sigems, Infosilem, Neolink, Expertiz Santé, Medialis, Escort Informatique) à l'international (France, Canada, Espagne, Maroc, Italie, Belgique, Suisse) avec plus de 51 000 clients et 25% de son CA investi dans la R&D.
Description du poste
Vos missions
Nous recherchons un/une Ingénieur(e) R&D titulaire d'un doctorat, spécialisé en intelligence artificielle embarquée et LLMs, pour renforcer nos capacités en IA edge et assistants intelligents pour la maintenance industrielle.
Vous serez amené(e) à travailler sur plusieurs projets innovants, notamment :
- Assistant IA offline et LLMs embarqués : Conception et déploiement d'assistants intelligents fonctionnant sur des dispositifs edge avec une connectivité intermittente ou absente, permettant aux techniciens terrain d'accéder à une aide contextuelle et intelligente en toutes circonstances,
- Jumeaux numériques cognitifs (JuNCAO) : Contribution aux composantes ML des jumeaux numériques capables d'apprendre et de s'adapter en temps réel,
- Intelligence opérationnelle distribuée (SIOD) : Participation au développement de systèmes multi-agents et d'architectures agentiques.
À terme, vous pourrez également contribuer à des travaux sur l'apprentissage fédéré pour des cas d'usage spécifiques.
Vos responsabilités
Recherche & Développement en IA
- Concevoir et implémenter des modèles de langage optimisés pour l'exécution sur dispositifs contraints (quantization, pruning, distillation).
- Développer des assistants conversationnels offline capables de fonctionner sans connexion réseau.
- Explorer et intégrer les avancées récentes en LLMs compacts, architectures agentiques et inférence edge.
- Contribuer aux composantes ML des jumeaux numériques cognitifs.
Intégration Edge & Déploiement
- Assurer le déploiement et l'optimisation des modèles sur architectures edge (GPU embarqués, NPU, CPU contraints).
- Concevoir des architectures d'inférence locale avec synchronisation différée.
- Gérer les contraintes de connectivité intermittente et les mécanismes de cache intelligent.
- Conteneuriser et industrialiser les solutions développées (Docker).
Collaboration & Valorisation Scientifique
- Travailler en étroite collaboration avec les équipes Optimisation, 3D/BIM et AR/VR pour assurer une intégration fluide des solutions.
- Contribuer à la veille scientifique et technologique, à la diffusion interne des bonnes pratiques IA, et à la publication de travaux issus des projets de recherche appliquée.
- Participer aux projets collaboratifs avec nos partenaires académiques et industriels.
- Partager les bonnes pratiques et accompagner les équipes dans la montée en compétences sur les sujets IA.
Description du profil
Profil recherché
- Formation : Doctorat en Machine Learning, Intelligence Artificielle, Traitement Automatique du Langage Naturel (TAL/NLP) ou domaine connexe.
- Expertise LLMs & NLP : Maîtrise des architectures de modèles de langage (Transformers, attention mechanisms) et des frameworks associés (PyTorch, HuggingFace, LangChain, llama.cpp, ONNX).
- Edge AI & ML embarqué : Expérience en optimisation et déploiement de modèles sur dispositifs contraints (quantization, pruning, inférence on-device).
- Développement : Solides compétences en Python et bonne connaissance de Docker ; connaissance de C++ ou Rust appréciée pour l'optimisation bas niveau.

