Banner_website_logo_small_wologo.png

Orateurs

Orateurs principaux (Keynotes)

IsabelleBloch_2.jpg

Isabelle Bloch

Sorbonne Université, CNRS, LIP6
Paris, France

Keynote : IA hybride et explicable pour l'interprétation d'images médicales

Cette présentation portera sur l'IA hybride et explicable, plus spécifiquement dans le domaine du raisonnement spatial et de l'interprétation d'images médicales. L'interprétation d'images bénéficie de la modélisation de connaissances sur la scène observée et les objets qu'elle contient, ainsi que sur leurs relations. Nous montrons dans ce contexte l'apport de l'intelligence artificielle hybride, combinant différents types de formalismes et de méthodes, et associant les connaissances aux données.

  


 Daniel_Sage_2022.jpg

Daniel Sage 

Biomedical Imaging Group and Center for Imaging
Ecole Polytechnique Fédérale de Lausanne (EPFL)
Lausanne, Switzerland

Keynote : Deep Learning Model for Biomedical Image Analysis

Deep learning (DL) models have profoundly reshaped biomedical imaging, transforming tasks such as image reconstruction, restoration, processing, segmentation, and quantitative analysis. Despite their apparent simplicity—being trained solely on example images—DL models present significant challenges, risks, and require advanced expertise.

In this presentation, we will explore key considerations for deploying DL models, stressing the shift from model-based approaches to data-driven methods. The first critical step is to check whether deep learning is truly necessary. If so, designing a DL image analysis pipeline involves balancing task-specific decomposition versus end-to-end systems and determining the learning strategy—supervised or self-supervised.

The well-known architectures used in imaging, including CNNs, U-Nets, GANs, and Vision Transformers, will be reviewed. Using examples from bioimaging field, we will then demonstrate how to choose between training from scratch, fine-tuning, or directly using pre-trained models, including foundation models such as Segment Anything Model.

The importance of creating valid and representative training datasets will also be highlighted, as this remains a persistent bottleneck in biomedical contexts where annotated data are rare. Finally, we will address broader challenges, including trust, ethical data usage, and the sustainable use of computational resources.

Orateurs Confirmés


Béatrice Berthon-Walker, Physics for Medicine Paris

L'IA pour explorer les données ultrasonores
L'imagerie par ultrasons produit aujourd'hui des données multiparamétriques, tri-dimensionnelles et hautement résolues en temps et dans l'espace. Cette augmentation exponentielle de quantité de données appelle naturellement des techniques d'apprentissage automatique pour en extraire le maximum d'information. Depuis l'automatisation d'analyses complexes jusqu'à l'identification de nouveaux motifs spatio-temporels, cet exposé illustrera les applications les plus prometteuses de l'apprentissage automatique à l'imagerie ultrasonore.

 


Carole Frindel, Creatis

Fusion multimodale et apprentissage profond pour des décisions thérapeutiques personnalisées
Dans le contexte de la médecine de précision, la prise de décisions thérapeutiques repose sur l’intégration de données multimodales, telles que des images médicales, des données cliniques et des informations textuelles issues des comptes rendus. Cette approche, illustrée ici par le cas de l'AVC et du traitement par thrombectomie, vise à mieux comprendre les interactions complexes entre ces données pour proposer des interventions personnalisées.
Les stratégies de fusion multimodale dépendent des modalités impliquées. Pour les images médicales (IRM, TEP, scanner), des techniques d’alignement spatial et des approches d’apprentissage profond basées sur des réseaux convolutionnels peuvent être utilisées pour capturert les liens entre modalités. Lorsqu’il s’agit de combiner des images avec des données cliniques structurées, les réseaux attentionnels comme les Transformers identifient les relations pertinentes, tandis que les autoencodeurs (AE) permettent de réduire la complexité des données. Pour les données longitudinales, les réseaux récurrents comme les LSTM (Long Short-Term Memory) sont particulièrement adaptés pour modéliser les dynamiques temporelles.

Enfin, l’intégration des informations textuelles, comme les comptes rendus médicaux, est une perspective en plein essor. Des modèles multimodaux tels que ViLT (Vision-and-Language Transformer) permettent d’associer images et textes dans une représentation commune, ouvrant de nouvelles possibilités pour affiner les décisions thérapeutiques.


Florence Forbes, Pixyl, INRIA

Modèle de diffusion génératif et design expérimental bayèsien pour l'optimisation de l'acquisition en IRM
Un des principaux défis pour tirer pleinement parti de l'imagerie par résonance magnétique (IRM) en clinique est d'accélérer les temps d'acquisition sans trop dégrader la qualité des images produites. Cet objectif repose sur la recherche d'un compromis entre le sous-échantillonnage des mesures brutes de l'espace k pour des acquisitions plus rapides et la collecte de suffisamment d'information pour des reconstructions d'images haute fidélité. Pour trouver un tel équilibre, nous proposons d'utiliser un plan d'expériences bayésien séquentiel (BED en anglais), qui permet une recherche séquentielle des mesures de l'espace k les plus informatives pour une tache cible particulière. L'approche BED considère la reconstruction comme un problème inverse bayésien dont l'objectif est d'estimer une distribution a posteriori des images conditionnellement à un sous-ensemble de mesures brutes. Ces mesures sont augmentées séquentiellement avec de nouveaux échantillons en fonction du gain d'information qu'ils fournissent sur la loi a posteriori ciblée. Dans ce contexte, la grande dimension des images est gérée efficacement par l'utilisation d'un modèle génératif basé sur des diffusions. Les performances de cette approche sont illustrées sur diverses taches de reconstruction et d'analyse d'IRM.
 

Hervé Delingette, INRIA, Epione


Jean-Philippe Thiran, EPFL


Juliette Griffié, SciLifeLab


Marco Lorenzi, INRIA, Epione


Nicolas Duchateau, Creatis

Apprentissage de représentation et fusion d'informations pour l'analyse de la fonction cardiaque à l'échelle de la population.

Il est crucial d’aller au-delà des mesures d’imagerie faites en clinique pour caractériser la complexité des pathologies de la fonction cardiaque. Les récents progrès en imagerie et en apprentissage automatique permettent d’extraire des biomarqueurs physiologiques fins des images. Néanmoins, un autre enjeu majeur est l’analyse de cette quantité de données, de haute dimension et de types hétérogènes, à l’échelle de populations. Cette présentation donnera une vue d'ensemble de nos travaux récents intégrant l'apprentissage de représentation et la fusion d'informations multimodales pour enrichir à la fois l'extraction de biomarqueurs physiologiquement pertinents, et pour analyser ces données à l'échelle d'une population, en particulier en tenant compte de la complémentarité des biomarqueurs disponibles.

 


Olivier Colliot, Aramis Lab, ICM


Thomas Walter, IC, Mines Paris Tech


Virginie Uhlmann, BioVisionCenter, ETH


Xavier Descombes, Inria univ d'Côte d'Azur


Personnes connectées : 6 Vie privée | Accessibilité
Chargement...