Afficher la notice abrégée

dc.contributor.advisorLevet, Florian
dc.contributor.authorGALINDO, Xareni
dc.contributor.otherGranier, Xavier
dc.contributor.otherKervrann, Charles
dc.contributor.otherRivière, Charlotte
dc.date2022-10-20
dc.identifier.urihttp://www.theses.fr/2022BORD0275/abes
dc.identifier.urihttps://tel.archives-ouvertes.fr/tel-03982040
dc.identifier.nnt2022BORD0275
dc.description.abstractCes dernières années, la popularité des cultures cellulaires en 3D, telles que les organoïdes ou les sphéroïdes, a explosé en raison de leur capacité à offrir des modèles précieux pour étudier la biologie humaine. Ces modèles sont en effet bien plus pertinents sur le plan physiologique que les cultures en 2D. Il est ainsi crucial de pouvoir segmenter leurs noyaux de manière précise et robuste étant donné que la quantification de la distribution de ces noyaux est au fondement d'une multitude de mesures quantitatives de fonctions cellulaires importantes. Or, aujourd'hui, l'acquisition automatique de centaines d'organoïdes est devenue une réalité grâce aux progrès des systèmes de microscopie récents. Néanmoins, cette grande quantité de données crée de nouveaux goulots d'étranglement. En effet, les méthodes traditionnelles de traitement d'images nécessitent d’adapter leurs paramètres en fonction des conditions d'imagerie, empêchant de facto une analyse automatique et sans biais. Cette situation a entraîné le développement rapide de méthodes basées sur l'apprentissage profond, telles que StarDist, qui ont démontré des performances impressionnantes pour la segmentation précise des noyaux. Un autre avantage de ces méthodes est leur capacité à réduire considérablement le temps de traitement des données. Cependant, les approches d'apprentissage profond nécessitent une grande quantité de données pour entrainer et générer des modèles de segmentation précis et généraux. Malheureusement, la plupart des données annotées disponibles sont en 2D, ce qui entrave l'utilisation de ces méthodes pour la segmentation des noyaux en 3D.L'objectif de ce doctorat était d’implémenter un pipeline permettant la segmentation automatique et robuste des noyaux de cultures 3D, une tâche que j'ai réalisée en trois étapes. Tout d'abord, j'ai annoté manuellement 4657 noyaux 3D provenant de 6 organoïdes/sphéroïdes différents. Ce jeu de données annoté de noyaux 3D représente actuellement le seul jeu de données de vérité terrain disponible de cette taille pour les noyaux 3D, une ressource importante pour la communauté pour l'entraînement et l’évaluation de nouvelles méthodes. Deuxièmement, j'ai réalisé que l’annotation de structures 3D prend énormément de temps et qu'il y a un manque d'outil disponible pour aider les annotateurs à garder une trace des annotations effectuées. J'ai donc développé le Napari Annotation Helper (NAHP), un plugin Napari conçu pour aider les utilisateurs à garder une trace des annotations encours, pour réduire les erreurs d'annotation et pour extraire des informations statistiques des images d'intensité. Troisièmement, j'ai entraîné un modèle de segmentation 3D StarDist avec l'ensemble de données de vérité terrain que j'ai créé. Ce modèle a été utilisé pour segmenter automatiquement des centaines d'organoïdes et quantifier la distribution spatiale de leurs noyaux, une preuve de concept que mon pipeline peut être utilisé pour répondre à des questions biologiques spécifiques.
dc.description.abstractEnIn recent years, the popularity of 3D cell cultures, such as organoids or spheroids, has exploded due to their ability to offer valuable models to study human biology, far more physiologically relevant than 2D cultures. Being able to segment nuclei accurately and robustly is crucial as quantifying the nuclei’s distribution is the basis of a variety of quantitative measurements of important cell functions. Nowadays, automatically acquiring hundreds of organoids has become a reality thanks to the advances in microscopy systems. Nevertheless, this high amount of data creates new bottlenecks as traditional image processing methods require adapting their parameters depending on the imaging conditions, preventing automatic and bias-free analysis. This has resulted in the rapid development of deep learning-based methods, such as StarDist, that demonstrated amazing performances for accurately segmenting nuclei. An additional benefit is their ability to reduce data processing time significantly. Still, deep learning approaches require a large amount of ground truth data to generate accurate and general segmentation models. Unfortunately, most datasets currently available are 2D, hampering the use of these methods for segmenting nuclei in 3D.The goal of this Ph.D. was to implement a pipeline enabling the automatic and robust segmentation of 3D cultures’ nuclei, a task I achieved in three steps. First, and because of the lack of available ground truth in 3D, I manually annotated 4657 3D nuclei spanning from 6 different organoids/spheroids. This 3D nuclei annotated dataset currently represents the only available ground truth dataset of this size for 3D nuclei, a significant resource for the community for training methods and benchmarking their results. Second, I realized that labeling 3D structures are very time-consuming and that there is a lack of available tools to help annotators keep track of the annotations performed. Thus, I developed the Napari Annotation Helper (NAHP), a Napari plugin designed to help users keep track of annotations, reduce annotation errors and extract statistical information from the intensity images to annotate. Third, I trained a StarDist 3D segmentation model with the ground truth dataset I created. This model was used to automatically segment hundreds of organoids and quantify their nuclei spatial distribution, a proof of concept that my pipeline can be used to answer specific biological questions.
dc.language.isoen
dc.subjectApprentissage profond
dc.subjectSegmentation
dc.subjectMicroscopie par feuille de lumière
dc.subjectHaute-Résolution
dc.subjectStarDist
dc.subjectTraitement d'images
dc.subject.enDeep-Learning
dc.subject.enSegmentation
dc.subject.enLight-Sheet microscopy
dc.subject.enHigh-Resolution
dc.subject.enStarDist
dc.subject.enImage Processing
dc.titleQuantification de la distribution de noyaux en 3D en microscopie à feuille de lumière en utilisant l’apprentissage profond
dc.title.en3D deep-learning based quantification of the nuclei distribution for light-sheet microscopy
dc.typeThèses de doctorat
dc.contributor.jurypresidentGranier, Xavier
bordeaux.hal.laboratoriesInstitut Interdisciplinaire de Neurosciences (Bordeaux)
bordeaux.type.institutionBordeaux
bordeaux.thesis.disciplineBioinformatique
bordeaux.ecole.doctoraleÉcole doctorale Sciences de la vie et de la santé (Bordeaux)
star.origin.linkhttps://www.theses.fr/2022BORD0275
dc.contributor.rapporteurKervrann, Charles
dc.contributor.rapporteurRivière, Charlotte
bordeaux.COinSctx_ver=Z39.88-2004&rft_val_fmt=info:ofi/fmt:kev:mtx:journal&rft.title=Quantification%20de%20la%20distribution%20de%20noyaux%20en%203D%20en%20microscopie%20%C3%A0%20feuille%20de%20lumi%C3%A8re%20en%20utilisant%20l%E2%80%99apprentissage%20pro&rft.atitle=Quantification%20de%20la%20distribution%20de%20noyaux%20en%203D%20en%20microscopie%20%C3%A0%20feuille%20de%20lumi%C3%A8re%20en%20utilisant%20l%E2%80%99apprentissage%20pr&rft.au=GALINDO,%20Xareni&rft.genre=unknown


Fichier(s) constituant ce document

FichiersTailleFormatVue

Il n'y a pas de fichiers associés à ce document.

Ce document figure dans la(les) collection(s) suivante(s)

Afficher la notice abrégée