Skip to main content
Home

Main navigation

  • News
    • All news
    • Seminars
  • Presentation
    • CREATIS
    • Organigram
    • People directory
    • Staff
    • Contacts
    • Access
  • Research
    • Research teams
    • Transversal projects
    • Structuring projects
    • Imaging platform
    • Activity reports
    • Data information note
  • Contributions
    • Publications
    • Patents
    • Software
  • Studies & Training
    • Implications dans les formations
    • Doctoral Studies
  • Jobs Opportunities
  • French French
  • English English
Search API form
User account menu
  • Account
    • Log in

Breadcrumb

  1. Accueil
  2. Apprentissage de formes pour la segmentation efficace d'images médicales 3D

Apprentissage de formes pour la segmentation efficace d'images médicales 3D

Figure 1. Gauche : image originale. Centre : points de contour (en rouge) extraits de l’image. Droite : image segmentĂ©e

 

Contexte

Le but de ce stage est l'utilisation de l'apprentissage machine sur nuages de points pour la segmentation efficace d'images médicales 3D.

 

Verrous

Les approches de segmentation basées sur les réseaux de neurones ont montré leur efficacité pour les images médicales 2D [1] et 3D [2], mais pour les images 3D de taille relativement grande (512^3 voxels ou plus), ces approches sont difficilement exploitables en raison de leur complexité calculatoire et de leur empreinte mémoire.

Ainsi, des mĂ©thodes d'apprentissage basĂ©es sur des donnĂ©es non structurĂ©es, telles que les nuages de points, apparaissent comme une alternative prometteuse [3][4][5][6]. Une difficultĂ©  inhĂ©rente aux donnĂ©es structurĂ©es est qu'il n'est pas possible d'utiliser des rĂ©seaux de neurones convolutifs classiques, il est nĂ©cessaire de crĂ©er de nouveaux rĂ©seaux adaptĂ©s.

 

Programme de recherche

Des travaux sur la segmentation de donnĂ©es non structurĂ©es ont dĂ©jĂ  Ă©tĂ© effectuĂ©s dans le cadre d’un prĂ©cĂ©dent stage financĂ© par le projet ANR TOPACS. Ces travaux ont dĂ©bouchĂ© sur une approche de segmentation d’images 2D, utilisant principalement des points non structurĂ©s comme donnĂ©es d’entrĂ©e pour la segmentation, se basant sur un rĂ©seau de type “Occupancy Network” [5]. Des premiers rĂ©sultats prometteurs ont Ă©tĂ© obtenus (voir Figure 1), et le but de ce stage est la poursuite de ces travaux, avec plusieurs perspectives possibles:

  • Proposer une nouvelle architecture de rĂ©seau plus propice Ă  la segmentation
  • Obtenir et utiliser une base d’apprentissage plus grande pour amĂ©liorer la robustesse du rĂ©seau
  • Enrichir les donnĂ©es en entrĂ©e : Ă  l’heure actuelle, seules des coordonnĂ©es des points sont prises en compte. Il est possible de rajouter des attributs Ă  ces points, tels que l’intensitĂ© des pixels sous-jacents ou le gradient local.
  • Adapter le rĂ©seau pour segmenter des images 3D.

 

Encadrement

Le stage se déroulera au laboratoire CREATIS, et sera encadré par Razmig Kéchichian (CREATIS), Julie Digne (LIRIS) et Sébastien Valette (CREATIS).

 

Candidature

Pour toute question ou candidature sur le sujet, contacter les encadrants par mail.

 

Références

  1. O. Ronneberger, P. Fischer & T. Brox, U-Net: Convolutional Networks for Biomedical Image Segmentation. Medical Image Computing and Computer-Assisted Intervention (MICCAI), 2015.
  2. Ö. Çiçek, A. Abdulkadir, S. Lienkamp, T. Brox, O. Ronneberger, 3D U-Net: Learning Dense Volumetric Segmentation from Sparse Annotation. Medical Image Computing and Computer-Assisted Intervention (MICCAI), 2016.
  3. Charles R. Qi, H. Su, K. Mo, L. J. Guibas, PointNet: Deep Learning on Point Sets for 3D Classification and Segmentation, Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition, 2017.
  4. M.-J. Rakotosaona, V. La Barbera, P. Guerrero, N. J. Mitra, M. Ovsjanikov, PointCleanNet: Learning to Denoise and Remove Outliers from Dense Point Clouds, Computer Graphics Forum, 2019.
  5. L. Mescheder, M. Oechsle, M. Niemeyer, S. Nowozin, A. Geiger, Occupancy networks: Learning 3d reconstruction in function space, Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition, 2019.
  6. J. J. Park, P. Florence, J. Straub, R.  Newcombe, S. Lovegrove, Deepsdf: Learning continuous signed distance functions for shape representation, Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition, 2019.





 

 

 

Barre liens pratiques

  • Authentication
  • Intranet
  • Rss feed
  • Creatis on Twitter
  • Webmail
Home

Footer menu

  • Contact
  • Map
  • Newsletter
  • Legal Notices