Pause
Lecture
Moteur de recherche d'offres d'emploi CEA

ML/Stat - Optimisation d'une espérance par estimation du gradient: méthodes et applications H/F


Détail de l'offre

Informations générales

Entité de rattachement

Le Commissariat à l'énergie atomique et aux énergies alternatives (CEA) est un organisme public de recherche.

Acteur majeur de la recherche, du développement et de l'innovation, le CEA intervient dans le cadre de ses quatre missions :
. la défense et la sécurité
. l'énergie nucléaire (fission et fusion)
. la recherche technologique pour l'industrie
. la recherche fondamentale (sciences de la matière et sciences de la vie).

Avec ses 16000 salariés -techniciens, ingénieurs, chercheurs, et personnel en soutien à la recherche- le CEA participe à de nombreux projets de collaboration aux côtés de ses partenaires académiques et industriels.  

Référence

2022-24482  

Description de l'unité

Au sein du CEA (630 brevets publiés en 2021 ce qui place le CEA au quatrième rang en France d'après le palmarès de l'INPI 2021), le List – situé au cœur du nouveau campus de Paris-Saclay – est un institut de recherche dédié aux systèmes numériques intelligents. Ses activités sont centrées sur l'industrie du futur, la confiance numérique et l'Intelligence Artificielle. C'est dans ce dernier axe que les équipes du Service d'Intelligence des Données opèrent. Nos 50 ingénieurs & chercheurs, répartis au sein de nos trois laboratoires, travaillent au développement et au transfert industriel de technologies de pointe en IA. À ce titre, les données que nous sommes amenés à traiter sont essentiellement des séries temporelles issues de capteurs (c.à.d. des mesures physiques : signaux électriques, vibratoires ou acoustiques par exemple) et des séquences d'événements produits par des équipements informatiques ou industriels (par exemple des logs systèmes ou des traces numériques issues d'activités humaines).

Description du poste

Domaine

Mathématiques, information  scientifique, logiciel

Contrat

Stage

Intitulé de l'offre

ML/Stat - Optimisation d'une espérance par estimation du gradient: méthodes et applications H/F

Sujet de stage

Dans de nombreuses applications intervient l'optimisation d'une espérance calculée par rapport à une loi paramétrée ce qui requiert premièrement une approximation Monte Carlo, et deuxièmement une réécriture de l'espérance afin d'obtenir une approximation des gradients. Ce stage se concentrera sur une étude comparative de deux familles de méthodes existantes avec pour but de comprendre les différences et spécificités. Par un travail de réinterprétation des méthodes, nous proposerons d'une part une cartographie des cas d'applications possibles des deux méthodes, et envisagerons la possibilité d'améliorer ces méthodes existantes au regard de la variance de l'estimation. Le stage sera porté sur les aspects théoriques et les applications en Machine Learning, et s'appuiera sur une revue approfondie de la littérature ainsi que sur des expérimentations numériques.

Durée du contrat (en mois)

3

Description de l'offre

Dans de nombreuses applications statistiques et de machine learning (ML) il est utile ou nécessaire d'optimiser des espérances. A part dans les cas d'usage les plus simples, les espérances ne sont pas calculables analytiquement et il est nécessaire d'utiliser une approximation Monte Carlo (MC) en utilisant des échantillons de la loi par rapport à laquelle est calculée l'espérance. Dans ce cas, on optimise une estimation de la fonction d'intérêt par une méthode de gradient et cela revient donc à utiliser un schéma d'optimisation dans lequel les valeurs des gradients sont une estimés. Il est donc primordial de se poser la question de la qualité (variance) de l'estimation de ces gradients.
Il s'avère souvent que la loi par rapport à laquelle est calculée l'espérance est paramétrée et que l'on cherche à optimiser ces paramètres. L'idée est alors de réécrire l'espérance d'intérêt comme une espérance prise par rapport à une loi qui ne dépend plus des paramètres, et de l'approximer ensuite par MC. Il existe une approche générale qui consiste à utiliser le log-trick/reinforce mais il semble que cela aboutisse souvent à une forte variance de l'estimation. Il existe des approches alternatives que l'on peut regrouper sous l'appellation reparameterization trick. Cependant, ces approches ne sont pas génériques et ne semblent pas s'appliquer à n'importe quelle loi.
L'objectif de ce stage est de travailler sur l'ensemble de ces techniques pour tout d'abord comprendre la différence conceptuelle entre les deux méthodes. Nous proposons dans un premier temps à l'étudiant de commencer par travailler sur des exemples simples illustratifs qui permettront de développer une intuition sur les deux principes.
Nous proposerons à l'étudiant de faire une cartographie des lois pour lesquelles il peut exister un schéma de reparameterization trick en se basant sur les papiers récents; et pourra également chercher comment étendre les méthodes existantes de reparameterization pour d'autres familles de lois.
L'idée commune des deux approches est de réécrire l'espérance mais elles appliquent ce principe de manières différentes : le reparameterization trick peut être vu comme "un changement de variable" tandis que l'approche Reinforce peut être interprétée comme un cas particulier d'importance sampling. Nous pourrons nous poser la question d'utiliser une autre loi d'importance. Serait-il possible de rendre l'approche reinforce compétitive en utilisant une loi habilement choisie ? Une étude théorique se basant sur des critères asymptotiques de variance peut être envisagée.
Durant ce stage, l'étudiant pourra développer ses connaissances sur les méthodes MC, l'optimisation et les différentes applications de ML (modèles génératifs, VI, RL...). L'étudiant pourra parfaire sa maîtrise en programmation et sera encouragé à développer une bibliothèque prête à l'usage implémentant les différentes méthodes.

Moyens / Méthodes / Logiciels

Python (Pytorch, TensorFlow)

Profil du candidat

Pour ce stage exploratoire, nous recherchons un candidat présentant un intérêt pour la théorie statistique et ses applications ML. Ce stage est à destination à des étudiants Bac +4/+5 avec une formation en mathématiques, statistiques ou ML.
Le contenu du stage pourra évoluer en fonction de l’intérêt et des compétences du candidat. La maîtrise du langage de programmation python incluant l'utilisation d'une bibliothèque de programmation probabiliste telle que Pytorch ou Tensorflow sera appréciée. Des connaissances sur les méthodes d'estimation MC seront valorisées.

Localisation du poste

Site

Saclay

Localisation du poste

France, Ile-de-France, Essonne (91)

Ville

Saclay

Critères candidat

Diplôme préparé

Bac+5 - Diplôme École d'ingénieurs

Formation recommandée

mathématiques, statistiques ou ML

Possibilité de poursuite en thèse

Non

Demandeur

Disponibilité du poste

01/03/2023