Informations générales
Entité de rattachement
Le Commissariat à l'énergie atomique et aux énergies alternatives (CEA) est un organisme public de recherche.
Acteur majeur de la recherche, du développement et de l'innovation, le CEA intervient dans le cadre de ses quatre missions :
. la défense et la sécurité
. l'énergie nucléaire (fission et fusion)
. la recherche technologique pour l'industrie
. la recherche fondamentale (sciences de la matière et sciences de la vie).
Avec ses 16000 salariés -techniciens, ingénieurs, chercheurs, et personnel en soutien à la recherche- le CEA participe à de nombreux projets de collaboration aux côtés de ses partenaires académiques et industriels.
Référence
2021-17166
Description de l'unité
L'équipe du laboratoire LIIM (Laboratoire Intelligence Intégrée Multi-capteurs) fait parti du Département des Systèmes et Circuits Intégrés Numériques (DSCIN) du CEA LIST. Elle développe depuis plusieurs années des algorithmes à visée embarquée.
Description du poste
Domaine
Mathématiques, information scientifique, logiciel
Contrat
Post-doctorat
Intitulé de l'offre
Post Doc-Détection d'exemples adverses dans des bases de données d'images naturelles H/F
Sujet de stage
Les réseaux de neurones artificiels (ANNs) sont devenus des outils fondamentaux pour traiter les données aujourd'hui massivement échangées. Leur déploiement dans des technologies sensibles (voitures autonomes, smart grid, filtrage des contenus, prétraitement des données personnelles dans l'internet périphérique, etc.) ne cesse de s'accélérer. Cependant, les ANNs présentent une faille de sécurité majeure : ils sont susceptibles d'être trompés par des exemples adverses. Les exemples adverses sont des données créées malicieusement pour conduire les ANNs à faire des prédictions erronées. Ils posent aujourd'hui un problème critique et constituent, pour cette raison, un sujet brûlant en machine learning.
Durée du contrat (en mois)
12 mois
Description de l'offre
Les réseaux de neurones artificiels (ANNs) sont devenus des outils fondamentaux pour traiter les données aujourd’hui massivement échangées. Leur déploiement dans des technologies sensibles (voitures autonomes, smart grid, filtrage des contenus, prétraitement des données personnelles dans l’internet périphérique, etc.) ne cesse de s’accélérer. Cependant, les ANNs présentent une faille de sécurité majeure : ils sont susceptibles d’être trompés par des exemples adverses. Les exemples adverses sont des données créées malicieusement pour conduire les ANNs à faire des prédictions erronées. Ils posent aujourd’hui un problème critique et constituent, pour cette raison, un sujet brûlant en machine learning.
Un modèle bio-inspiré a déjà été construit pour détecter les exemples adverses, qui implémente des réinjections similaires à celles proposées dans certaines modélisations computationnelles de la mémoire humaine. Le modèle, hybride – il implémente à la fois des fonctions d’autoencoder et de classifieur – obtient d’excellentes performances sur des bases de données de petites envergures. Un brevet est en cours de dépôt (finalisation dépôt en novembre 2020) qui protégera le système pour la détection d’anomalies au sens large. Un article de journal est également en cours d’écriture, qui présente le modèle pour le cas spécifique de la détection d’exemples adverses (qui peuvent être considérés comme un cas particulier d’anomalies – particulièrement difficiles à détecter).
Le postdoctorant sera amené à généraliser les performances du modèle aux bases de données d’images naturelles de plus grandes envergures. En particulier, il s’agira de :
- Proposer un nouveau type d’architecture hybride pour passer des autoencoders classiques aux autoencoders convolutionnels (qui ne nécessiterait plus de passer par une extraction préalable de features) ;
- Tester l’intégrations dans le système de modèles génératifs (qui « stabilise » l’espace latent), en particulier les autoencoders variationnels ;
- Optimiser les paramètres du modèle existants.
D’autre part, nous désirerions étendre le sujet de la détection d’exemples adverses à la robustesse des modèles contre les exemples adverses (c’est-à-dire, à la capacité des modèles à classifier correctement les exemples adverses). Des résultats préliminaires sur des bases de données de dimensions réduites suggèrent, en effet, que la réinjection d’un exemple adverse pourrait permettre d’identifier sa classe d’origine ou de le débruiter – phénomène qui reste à quantifier et à généraliser sur des bases de données plus larges.
Moyens / Méthodes / Logiciels
Tensor flow / Pytorch
Profil du candidat
doctorant en Machine Learning
compétences en sciences cognitives serait un plus
Localisation du poste
Site
Grenoble
Localisation du poste
France
Ville
grenobe
Demandeur
Disponibilité du poste
01/12/2021