Critères de l'offre
Métiers :
- Ingénieur sécurité (H/F)
- + 2 métiers
Expérience min :
- 1 à 2 ans
Diplômes :
- Bac+5
Compétences :
- sécurité
Lieux :
- Cesson-Sévigné (35)
Conditions :
- CDI
- Temps Plein
L'entreprise : ORANGE BUSINESS
Orange Cyberdefense est l'entité stratégique du Groupe Orange dédiée à la sécurité numérique. Nous accompagnons les entreprises de toutes tailles, organismes critiques, administrations et collectivités locales dans la conception de leurs stratégies de cybersécurité, leur mise en oeuvre et leur gestion opérationnelle.
Nous leur apportons notre expertise afin d'assurer le meilleur niveau de protection de leurs données, de leurs équipements et des services qu'ils offrent à leurs clients ou leurs administrés.
Avec un chiffre d'affaires de plus de 1,2 milliard d'euros en 2024, plus de 50 000 clients et 3 100 experts en cybersécurité, nous sommes aujourd'hui le leader européen de la cyberdéfense.
Notre mission : construire une société numérique plus sûre.
Nous leur apportons notre expertise afin d'assurer le meilleur niveau de protection de leurs données, de leurs équipements et des services qu'ils offrent à leurs clients ou leurs administrés.
Avec un chiffre d'affaires de plus de 1,2 milliard d'euros en 2024, plus de 50 000 clients et 3 100 experts en cybersécurité, nous sommes aujourd'hui le leader européen de la cyberdéfense.
Notre mission : construire une société numérique plus sûre.
Description du poste
Prêt.e à sécuriser le futur de l'Intelligence Artificeille (IA) ? Rejoignez nous !
En tant qu'Ingénieur.e Sécurité IA, vous contribuerez à la création de prototypes techniques, à l'évaluation des solutions de sécurité IA et au développement d'une expertise avancée sur les menaces et protections liées à l'IA générative et agentique.
Vous participerez à la définition de scénarios d'analyse, à la réalisation de tests comparatifs et la recherche de méthodologies innovantes pour anticiper les usages malveillants de l'IA. Enfin, vous contribuerez à la structuration d'offres et d'outils internes pour la gestion de ces enjeux.
Vous aurez les missions suivantes :
Mise en place de démonstrateurs plug & play de solutions éditeurs en sécurité de l'IA, sur un environnement de simulation de use case IA (incluant par exemple du RAG connecté à SharePoint comme base documentaire).
Création de scénarios de tests pour réaliser une analyse comparative détaillée de différentes solutions éditeurs sur cet espace de démonstration. Ces scénarios serviront de matrice d'évaluation pour orienter les recommandations clients.
Réalisation d'analyses comparatives détaillées des solutions testées sur l'environnement de simulation, incluant potentiellement des outils comme Copilot, avec maintien à jour des résultats.
Veille sur les méthodologies et actualités d'attaques ciblant les applications LLM et agentiques.
Mise en place de démonstrateurs IA agentiques, selon le même principe plug & play, en intégrant les solutions éditeurs capables de sécuriser ces environnements.
Veille sur les usages offensifs de l'IA par les attaquants (ex. deepfakes) et identification et test de solutions de protection contre ces attaques.
Devenir un point de contact technique référent pour accompagner la montée en maturité sur les sujets IA, participer à l'évaluation des éditeurs et contribuer à l'implantation de POC et projets clients.
Participer à la conception d'offres autour de la sécurité de l'IA.
Contribuer au développemnt d'outils IA en interne pour améliorer les process et gagner en efficacité.
En tant qu'Ingénieur.e Sécurité IA, vous contribuerez à la création de prototypes techniques, à l'évaluation des solutions de sécurité IA et au développement d'une expertise avancée sur les menaces et protections liées à l'IA générative et agentique.
Vous participerez à la définition de scénarios d'analyse, à la réalisation de tests comparatifs et la recherche de méthodologies innovantes pour anticiper les usages malveillants de l'IA. Enfin, vous contribuerez à la structuration d'offres et d'outils internes pour la gestion de ces enjeux.
Vous aurez les missions suivantes :
Mise en place de démonstrateurs plug & play de solutions éditeurs en sécurité de l'IA, sur un environnement de simulation de use case IA (incluant par exemple du RAG connecté à SharePoint comme base documentaire).
Création de scénarios de tests pour réaliser une analyse comparative détaillée de différentes solutions éditeurs sur cet espace de démonstration. Ces scénarios serviront de matrice d'évaluation pour orienter les recommandations clients.
Réalisation d'analyses comparatives détaillées des solutions testées sur l'environnement de simulation, incluant potentiellement des outils comme Copilot, avec maintien à jour des résultats.
Veille sur les méthodologies et actualités d'attaques ciblant les applications LLM et agentiques.
Mise en place de démonstrateurs IA agentiques, selon le même principe plug & play, en intégrant les solutions éditeurs capables de sécuriser ces environnements.
Veille sur les usages offensifs de l'IA par les attaquants (ex. deepfakes) et identification et test de solutions de protection contre ces attaques.
Devenir un point de contact technique référent pour accompagner la montée en maturité sur les sujets IA, participer à l'évaluation des éditeurs et contribuer à l'implantation de POC et projets clients.
Participer à la conception d'offres autour de la sécurité de l'IA.
Contribuer au développemnt d'outils IA en interne pour améliorer les process et gagner en efficacité.
Description du profil
Titulaire d'un Bac +5 en informatique, cybersécurité ou intelligence artificielle, vous avez une première expérience professionnelle ou projet significatif dans ces domaines. Vous êtes curieux.se, autonome, proactif.ve et vous aimez explorer des sujets innovants. Vous avez envie de contribuer à des projets concrets et à fort impact dans le domaine de la sécurité en IA.
Vous avez notamment les compétences suivantes :
Compétences en développement applicatifs, notamment GenAI.
Bonne compréhension des technologies d'IA générative ainsi que des enjeux de sécurité associés.
Capacité à structurer des scénarios techniques et analyser des résultats de tests.
Esprit d'analyse, curiosité et rigueur dans la documentation de travaux.
Capacité à travailler en équipe et collaborer avec des profils variés (techniques, commerciaux, partenaires).
Bonne communication écrite et orale.
Une première expérience dans un environnement technique ou cybersécurité serait un plus.
Vous avez notamment les compétences suivantes :
Compétences en développement applicatifs, notamment GenAI.
Bonne compréhension des technologies d'IA générative ainsi que des enjeux de sécurité associés.
Capacité à structurer des scénarios techniques et analyser des résultats de tests.
Esprit d'analyse, curiosité et rigueur dans la documentation de travaux.
Capacité à travailler en équipe et collaborer avec des profils variés (techniques, commerciaux, partenaires).
Bonne communication écrite et orale.
Une première expérience dans un environnement technique ou cybersécurité serait un plus.
Référence : 2025-48241

