Doctorant en fiabilité et Interprétabilité des Modèles pour l’Imagerie de Santé (F/H)

Localisation

38000 Grenoble, Auvergne-Rhône-Alpes

Domaines d'activités

Recherche / Research

Modalités de recrutements

CDD - short-term contract

Catégorie fonction publique

A

Prise de poste

1 novembre 2025

Durée du contrat

36 mois

Niveau d'étude

Bac+5

Niveau d'expérience

Junior (1-2 ans)

Date limite de candidature

14/10/2025

Partagez cette offre

A propos

Grand établissement public d'enseignement supérieur, pôle de recherche reconnu, élément fondateur de l'écosystème grenoblois : Grenoble INP, l'institut d'ingénierie et de management de l’Université Grenoble Alpes (UGA), occupe une place de premier plan dans la communauté scientifique et industrielle.

Grenoble INP - UGA est membre de réseaux internationaux de formation et recherche en ingénierie et management.

Il est reconnu dans les classements nationaux et internationaux.

Gipsa-lab (Grenoble Images Parole Signal Automatique) est une unité mixte de recherche de Grenoble INP - UGA, de l'Université Grenobles Alpes et du CNRS, spécialisée dans le domaine des recherches théoriques et appliquées sur l’automatique, le signal, les images, la parole, la cognition, la robotique et l’apprentissage.

Pluridisciplinaire et à l’interface entre l’humain, les mondes physiques et numériques, ses recherches se confrontent à des mesures, des
données, des observations provenant des systèmes physiques, physiologiques, cognitifs.

Site internet : https://www.gipsa-lab.grenoble-inp.fr/

Votre mission

Le travail doctoral vise à renforcer la fiabilité (calibration) et l’interprétabilité des modèles d’apprentissage

profond pour la classification en imagerie médicale en développant des approches d’Evidential Deep Learning

(EDL) capables de quantifier l’incertitude (épistémique / aléatoire) et de l’aligner avec l’exactitude des prédictions, en particulier dans des contextes fortement déséquilibrés en classes.

Le-La doctorant-e développera des fonctions de perte et régularisations sensibles à l’incertitude (priors adaptatifs, pénalités de sur-confiance, méta-apprentissage pour le réglage d’hyperparamètres) afin d’obtenir des sorties mieux calibrées et plus fiables sur des jeux de données cliniques hétérogènes (ex. MIMIC-CXR, CheXpert, autres bases ouvertes).

Dans la composante explicabilité du travail doctoral, elle étendra les méthodes de saillance de type Grad-CAM vers une “Evidential-CAM” exploitant les paramètres de Dirichlet produits par l’EDL pour générer des cartes d’explication pondérées par l’incertitude (totale, épistémique, aléatoire), permettant de signaler visuellement aux cliniciens les zones fiables ou douteuses.

Ces développements seront réalisés de M0 à M36, avec itérations méthodologiques, implémentations expérimentales et validation comparative sur plusieurs bases d’images médicales annotées, en interaction avec les partenaires du consortium : Gipsa-Lab-Grenoble : Dawood AL CHANTI (MCF), Mauro Dalla Mura (MCF-HDR) et LS2N-Nantes : Diana Mateus (Pr,HDR)

Le profil idéal

Compétences:

  • excellente performance académique

  • maîtrise de Python

  • maîtrise des outils d’analyse scientifique (reconnaissance de dessins, débruitage d’images thermiques, data challenge capteurs qualité de l’air)

  • Savoir travailler en groupe et en autonomie

Intéressé(e) ? Postulez dès maintenant !

Prénom *
Nom *
Email *
Téléphone
CV *
Maximum file size: 20 Mo
Lettre de motivation
Maximum file size: 20 Mo
Message complémentaire