Exploitation du contexte temporel multi-échelle pour la classification de signaux médicaux
Recrutement: 
Recrutement en cours/passé: 
Recrutement en cours
Periode: 
2023
Contact: 
Encadrants : Philippe Delachartre (philippe.delachartre@creatis.insa-lyon.fr) Yamil Vindas (yamil.vindas@creatis.insa-lyon.fr)

Voir la description détaillée ci-dessous

---------------------------------------------------------

Accueil : Laboratoire CREATIS, 69 Villeurbanne- équipe ULTIM

Encadrants : Philippe Delachartre (philippe.delachartre@creatis.insa-lyon.fr)

                           Yamil Vindas (yamil.vindas@creatis.insa-lyon.fr)

 

Mots-clés : analyse de signaux et d’images médicaux, apprentissage automatique, contexte temporel multi-échelle, classification

 

Duré : 5-6 mois.  Période de démarrage : février-mars 2023

Rémunération  : ~580 euros/mois

 

Contexte :

Ce stage est proposé dans le cadre du projet CAREMB (https://www.insa-lyon.fr/fr/caremb)

dans lequel du Doppler transcranien (TCD) et des algorithmes d’apprentissage profond (deep learning) sont utilisés pour la prévention des accidents vasculaires cérébraux (AVC).

En effet, le dispositif TCD permet de faire des enregistrements de longue durée du flux sanguin cérébral. À partir de ces enregistrements, il est possible de détecter des HITS (high intensity transient signals), qui correspondent à des potentiels emboles (solides ou gazeux). Dans certains cas, même pour un expert dans le domaine, l’identification de HITS entre artefacts, emboles solides et emboles gazeux peut être difficile à faire, spécialement lorsque le contexte temporel est réduit.

Actuellement, la plupart des méthodes d’apprentissage machine qui sont utilisées pour la classification de HITS exploitent un contexte temporel réduit (<250 ms) [1]. Cependant, dans certains, l’utilisation d’un contexte temporel plus long est nécessaire pour une classification correcte (c.f. figure 1).

 

 

Objectifs du stage :

  1. Développement de méthodes/modèles permettant l’exploitation d’un contexte temporel plus long.
  2. Développement de méthodes/modèles capables d’exploiter différentes échelles temporelles d’un signal pour faire la classification.
  3. Comparaison des méthodes/modèles avec l’état de l’art.

Tout au long du processus de développement, une démarche d’IA écoresponsable sera suivie [2].

 

Feuille de route :

  • Extraction d’une base de données de HITS avec un contexte temporel supérieur à 1s.
  • Bibliographie par rapport aux :
    • Techniques d’apprentissage pour la classification de signaux en utilisant plusieurs échelles temporelles [3] [4].
    • Modèles d’apprentissage pour la classification de signaux longs.
    • Techniques de fusion multi-représentations.
  • Implémentation de différents modèles pour comparaison (Transformers, CNN, LSTM, …).
  • Comparaison des différentes méthodes.
  • Rédaction d’un article de conférence/journal (en fonction des résultats et de l’avancement).
  • Rédaction du rapport de stage.

 

Pre-requis :

Le stagiaire devra présenter de bonnes connaissances en apprentissage machine et programmation :

  • Apprentissage machine : deep/machine learning (CNN, Transformers, LSTM).
  • Programmation : Numpy, PyTorch, Scikit Learn.

Des notions en traitement d’images/données médicales peuvent permettre une plus grande interaction avec les intervenants.

 

Lieu :

Laboratoire CREATIS, Université Claude Bernard LYON I, INSA-Lyon

Bâtiment Leonard de Vinci, Domaine Scientifique de la DOUA

43 Boulevard du 11 Novembre 1918, 69622 Villeurbanne Cedex, FRANCE

 

Encadrement :

Philippe Delachartre (philippe.delachartre@creatis.insa-lyon.fr)

Yamil Vindas (yamil.vindas@creatis.insa-lyon.fr)

 

Présentation du laboratoire CREATIS :

Le laboratoire Creatis est une Unité de recherche en imagerie médicale regroupant environ 200 personnes (58 chercheurs et enseignants-chercheurs, 11 chercheurs et 18 médecins des Hospices Civils de Lyon (HCL) et du CHU de Saint Etienne, 75 doctorants et Post-doctorants, 22 ingénieurs, des informaticiens, techniciens et personnels administratifs) dont les domaines de recherche privilégiés sont au croisement de deux grands axes :

  • L’identification des grandes questions de Santé pouvant être abordées par l'Imagerie.
  • L’identification des verrous théoriques en traitement du signal & des images, en modélisation & en simulation numérique dédiés à l’imagerie du vivant.

Creatis répond à ces défis par une approche transdisciplinaire reposant sur une organisation matricielle mettant en interaction ses six équipes de recherche appartenant aux sciences et technologies de l’information et de la communication, aux sciences pour l’ingénieur et aux sciences du vivant.

ttp://www.creatis.insa-lyon.fr/site/

 

Présentation du la société Atys Medical :

Atys Médical est une société française fondée en 1990 par son dirigeant actuel. La société est spécialisée dans la conception, la fabrication et la vente de Doppler vasculaires, Doppler transcrâniens et systèmes de mesure de la pression systolique pour la médecine vasculaire, l'angiologie, la phlébologie, le suivi du patient diabétique, la neurologie, l'anesthésie réanimation, les soins intensifs, les urgences et la dermatologie. Au fil des années, l’entreprise a su développer une véritable richesse technologique, humaine et expérimentale, en investissant intensivement en recherche et développement et en s’entourant des meilleures compétences dans leurs domaines (ingénieurs, médecins, laboratoires de recherche universitaires, etc.).

https://www.atysmedical.com/fr/

 

Bibliographie :

[1] Yamil Vindas, Blaise Kévin Guépié, Marilys Almar, Emmanuel Roux, and Philippe Delachartre, “An hybrid cnn-transformer model based on multi-feature extraction and attention fusion mechanism for cerebral emboli classification,” in Proceedings of the 7th Machine Learning for Healthcare Conference. 05–06 Aug 2022, Proceedings of Machine Learning Research, PMLR.

[2] Dilhac, M.‐A., Abrassart, C., Voarino, N., et al. (2018b). Rapport de la déclaration de Montréal pour un développement responsable de l’intelligence artificielle. Technical report, IA responsable.

[3] Keshishian, M., Norman-Haignere, S., & Mesgarani, N. (2021, December 6). Understanding adaptive, multiscale temporal integration in deep speech recognition systems. Advances in Neural Information Processing Systems. Retrieved October 17, 2022, from https://proceedings.neurips.cc/paper/2021/hash/ccce2fab7336b8bc8362d115d...

[4] Xu, J., Zhu, Y., Zhong, R., Lin, Z., Xu, J., Jiang, H., Huang, J., Li, H., & Lin, T. (2020, June 26). Deepcropmapping: A multi-temporal Deep Learning Approach with improved spatial generalizability for dynamic corn and soybean mapping. Remote Sensing of Environment. Retrieved October 17, 2022, from https://www.sciencedirect.com/science/article/pii/S0034425720303163