Interprétation des réseaux de neurones pour l'imagerie médicale
Recrutement: 
Recrutement en cours/passé: 
Recrutement en cours
Periode: 
2022
Fichiers: 

Mots-clefs : interprétabilité, apprentissage profond, segmentation, recalage, diagnostic

Domaine et contexte scientifiques :L’apprentissage profond a fait faire un bond en avant fulgurant à l'analyse d'image médicale. Cependant, les réseauxde neurones restent des "boîtes noires": on ne sait ni comment sont prises les décisions ni quelles sont lescaractéristiques de l'image d'entrée utilisé pour la décision. Or le domaine médical est un domaine critique danslequel on shouhaite la décision soit transparente ou au moins vérifiable par clinicien. Par ailleurs, les basesd'apprentissage/validation/test étant souvent issues de la partition d'une même base globale, un biais dans celle ciaffectera la généralisation du réseau qui montrerait pourtant de bons résultats.Les cartes d'attributions [IG,EG], identifiant les pixels d'importance dans le décision d'un réseau, permettent parfoisde voir, a posteriori, les zones utilisées par un réseau pour prendre sa décision.Avec ces outils, nous avons montré àCREATIS, que pour un classifieur sujets sains vs pathologiques, on pouvait améliorer l'interprétabilité[Wargnier2021] ou utiliser ces cartes à l'apprentissage pour baser la décision sur les lésions (voir figure ci dessous)[Wargnier 2022].

Programme de recherche proposée :Différents axes pourront être abordés durant la thèse.Nous avons constaté qu'avec notre terme de régularisation [Wargnier2022], l'apprentissage était plus long et plusdifficile. Le premier axe de la thése sera un travail sur la stabilisation de l'apprentissage: comprendre pourquoil'apprentissage est plus compliqué et proposer des méthodes pour réduire les temps d'apprentissage.Notre terme de régularisation n'étant adapté qu'à des problèmes de classification, dans un second axe nouspourrons étendre notre régularisation à des tâches de régression. Nous pourrons comme cas d'application desproblèmes de recalage affine ou de prédiction du handicap en sclérose en plaque.Dans un troisième axe, nous étendrons notre approche à la segmentation. Pour cette tâche ce type derégularisation pourrait réduire le nombre de sujets annotées nécessaire. Il faudra prendre en compte deuxnouveaux aspects: le changement d'architectures qui sont de type encodeur/decodeur et le fait que la sortie n'estpas qu'une unique valeurs mais une image de même taille que l'image d'entrée.

Profil recherchéFormation : machine/deep learning, mathématiques appliquées, analyse d’images, vision par ordinateur.Un excellent niveau en développement logiciel, anglais (écrit/oral) et des facilités de rédaction sont aussiattendues.Merci de fournir les documents suivant avec votre candidature :- Curriculum Vitae- Diplômes et notes pour l’ensemble du cursus universitaire- Lettre(s) de recommandation de l’encadrant de stage- Lettre de motivation

Superviseurs:

Michaël Sdika CREATIS www.creatis.insa-lyon.fr, michael.sdika [at] creatis.insa-lyon.fr

Christophe Garcia : LIRIS https://liris.cnrs.fr, christophe.garcia[at] insa-lyon.fr

Where and When:

Lieu : CREATIS La Doua Campus, Villeurbanne, France

Démarrage: Octobre 2022

Références bibliographie sur le sujet :

[IG] Sundararajan, M., Taly, A., Yan, Q., 2017. Axiomatic attribution for deep networks, in: InternationalConference on Machine Learning, PMLR. pp.3319–3328.

[EG] Erion, G., Janizek, J.D., Sturmfels, P., Lundberg, S.M., Lee, S.I., 2021. Improving performance of deeplearning models with axiomatic attribution priors and expected gradients. Nature Machine Intelligence , 1–12

[Wargnier2021] Wargnier-Dauchelle, V., Grenier, T., Durand-Dubief, F., Cotton, F., Sdika, M., 2021. A moreinterpretable classifier for multiple sclerosis, in: IEEE ISBI 2021. pp.1062–1066.

[Wargnier2022] Valentine Wargnier-Dauchelle, Thomas Grenier, Françoise Durand-Dubief, François Cotton,Michaël Sdika, Attribution constraints for interpretable and relevant deep classifier, Medical Image Analysis,submitted