Skip to main content
Home

Main navigation

  • News
    • All news
    • Seminars
  • Presentation
    • CREATIS
    • Organigram
    • People directory
    • Staff
    • Contacts
    • Access
  • Research
    • Research teams
    • Transversal projects
    • Structuring projects
    • Imaging platform
    • Activity reports
    • Data information note
  • Contributions
    • Publications
    • Patents
    • Software
  • Studies & Training
    • Implications dans les formations
    • Doctoral Studies
  • Jobs Opportunities
  • French French
  • English English
Search API form
User account menu
  • Account
    • Log in

Breadcrumb

  1. Accueil
  2. Structure et explicabilité des réseaux de neurones pour la Santé: application à la prévention du sepsis

Structure et explicabilité des réseaux de neurones pour la Santé: application à la prévention du sepsis

Ajouter à mon calendrier
Google Agenda Outlook Calendrier

Résumé :

Le sepsis constitue aujourd’hui un défi majeur de santé publique et l’une des principales causes de mortalité hospitalière. Sa détection précoce est essentielle, car chaque heure gagnée dans l’instauration d’un traitement adapté améliore significativement le pronostic vital. Si les modèles d’apprentissage automatique montrent un fort potentiel pour cette tâche, leur opacité freine leur adoption en pratique clinique. Rendre leurs prédictions compréhensibles et fiables est donc un enjeu crucial. Dans cette thèse, nous nous appuyons sur la base de données publique MIMIC-IV, qui contient les informations de plus de 300 000 patients hospitalisés en soins intensifs ou aux urgences, et exploitons 15 variables cliniques temporelles, des données démographiques et les antécédents médicaux encodés via les codes CIM-10.

Nos contributions sont triples. Premièrement, nous explorons l’utilisation d'une architecture de réseaux de neurones associant à chaque prédiction des représentations conceptuelles de haut niveau apprises sans supervision, le cadre des Self-Explaining Neural Networks. Deuxièmement, nous proposons une adaptation d’architectures de détection existantes, en séparant explicitement le traitement des variables cliniques temporelles, afin d’améliorer la fidélité des méthodes d’explicabilité post-hoc. Troisièmement, nous introduisons une contrainte d’apprentissage, initialement développée en imagerie médicale et adaptée au domaine temporel, qui incite le modèle à se concentrer sur les dimensions cliniquement pertinentes des données.

Ces travaux montrent qu’il est possible de concilier performance prédictive et explicabilité, et ouvrent des perspectives pour le déploiement de modèles de détection précoce du sepsis plus explicables et utilisables en pratique hospitalière.

Mots-clefs : apprentissage profond, explicabilité des réseaux de neurones, détection précoce du sepsis

Abstract :

Sepsis is a major public health challenge and one of the leading causes of in-hospital mortality. Early detection is crucial, as timely initiation of appropriate treatment significantly improves patient outcomes. While machine learning models hold strong potential for this task, their opacity hinders their adoption in clinical practice. Making their predictions understandable and reliable is therefore a crucial challenge. In this thesis, we rely on the public MIMIC-IV database, which includes records from more than 300 000 patients hospitalised in intensive care or emergency departments, and use 15 temporal clinical variables, demographic data and medical history encoded through ICD-10 codes.

Our contributions are threefold. First, we investigate the use of Self-Explaining Neural Networks, which associate each prediction with high-level conceptual representations, thereby providing locally linear explanations. Second, we propose an adaptation of existing early sepsis detection architectures, explicitly separating the processing of temporal clinical variables to improve the fidelity of post-hoc explanation methods. Third, we introduce a learning constraint, originally developed in medical imaging and tailored to temporal data, that encourages the model to focus on clinically relevant information.

This work demonstrates that predictive performance and interpretability can be reconciled, paving the way for more explainable and clinically applicable models for early sepsis detection.

Keywords : deep learning, neural networks explicability, early sepsis detection

Jury :

  • Karine ZEITOUNI, Professeure des universités, Université UVSQ, Rapporteure
  • Fabienne PORÉE, Professeure des universités, Université de Rennes, Rapporteure
  • Céline HUDELOT, Professeure des universités, CentraleSupélec, Examinatrice
  • Céline Robardet, Professeure des universités, INSA Lyon, Examinatrice
  • André ANJOS, Chargé de recherche, Idiap Research Institute, Examinateur
  • Michaël SDIKA, Ingénieur de recherche HDR, CNRS, Directeur de thèse
  • Nicolas DUCHATEAU, Maître de conférences HDR, Université Lyon 1, Co-encadrant
  • Mathieu LEFORT, Maître de conférences HDR, Université Lyon 1, Co-encadrant

Orateur

Pierre-Elliott THIBOUD

Lieu

Bibliothèque Marie Curie - Amphi Emilie du Châtelet

Date - horaires

Mon 01/12/2025 - 00:00

Type d'évenement

Soutenance de thèse

Barre liens pratiques

  • Authentication
  • Intranet
  • Rss feed
  • Creatis on Twitter
  • Webmail
Home

Footer menu

  • Contact
  • Map
  • Newsletter
  • Legal Notices