Le ConText-GAN pour la génération d’images de microscopie électronique : Augmentation de données par approche générative.

When:
15/01/2025 all-day
2025-01-15T01:00:00+01:00
2025-01-15T01:00:00+01:00

Offre en lien avec l’Action/le Réseau : – — –/– — –

Laboratoire/Entreprise : LIS UMR 7020 : www.lis-lab.fr
Durée : 5 à 6 mois
Contact : marc-emmanuel.bellemare@univ-amu.fr
Date limite de publication : 2025-01-15

Contexte :
Ce projet s’appuie sur une collaboration entre le laboratoire Informatique et Systèmes (LIS), expert dans l’analyse d’image, et le laboratoire Mephi (IHU Méditerranée Infection), expert en microbiologie et en microscopie électronique. L’EI est une pathologie grave, associée à un diagnostic difficile et une grande mortalité (Habib 2019). L’EI est caractérisée par une infection bactérienne ou fongique de l’endocarde avec une destruction des valves cardiaques et la formation d’un dépôt fibrino-plaquetaire inflammatoire et infecté, ou végétation. La microscopie électronique à balayage (MEB) est une technique de microscopie électronique capable de produire des images en haute résolution de la surface d’un échantillon (lien). Par une approche innovante par MEB, on a démontré une hétérogénéité de l’ultrastructure des vegetations d’EI qui dépend du microorganisme infectieux (Hannachi 2020 ; vidéo). Cette approche innovante a ainsi montré sa force mais elle s’appuie sur une analyse experte des images qui reste manuelle et fastidieuse.

Sujet :
L’objectif du stage est de développer une méthode à base de réseaux profonds pour accélérer l’analyse des images des végétations, c’est-à-dire pour identifier et quantifier automatiquement les éléments biologiques présents (plaquettes, fibrine, globules, bactéries). Nous nous proposons d’utiliser une architecture qui permettra à la fois la détection et la segmentation des objets d’intérêt dans l’image. Cependant, l’entrainement de réseaux profonds demande une quantité importante d’images annotées. Le nombre des images disponibles étant actuellement limité, il s’agit alors de mettre en œuvre une stratégie d’augmentation de données qui pourrait profiter d’une architecture générative d’images. Le ConTextGAN (Hostin 2023) que nous avons développé au LIS permet de produire des images dont le contenu est finement contrôlé. Il a montré ses performances dans le cadre de l’IRM. Aussi, dans le cadre de ce stage le ConTextGAN sera entrainé pour la génération de différents types d’images MEB et les performances seront évaluées par l’apport de ces images sur les performances de segmentation d’un réseau du type YOLO ou nnUnet. Une comparaison des performances du ConTextGAN avec celles des méthodes de diffusion sera (e.g. ControlNet) envisagée.
https://huggingface.co/docs/diffusers/using-diffusers/controlnet#guess-mode

Profil du candidat :
Le candidat ou la candidate de niveau Bac+5, formé(e) au traitement des images, sera intéressé(e) par un projet pluridisciplinaire et l’imagerie médicale.

Formation et compétences requises :
La programmation des algorithmes se fera avec le langage python et les réseaux profonds seront développés avec l’API PyTorch. Des compétences en classification ou en mathématiques appliquées seront particulièrement appréciées.

Adresse d’emploi :
Le stage se déroulera à Marseille dans les locaux de l’équipe Image & Modèles du LIS à St Jérôme (site de Polytech’) ou dans ceux de l’équipe MEPHI de l’IHU Méditerranée Infection, selon les besoins.

Document attaché : 202410160834_Sujet_Master2_ConTextGAN-AugmentationDL-SEM.pdf