Une approche basée sur la géométrie Riemannienne pour l'estimation en ligne des distributions elliptiques
Langue
en
Thèses de doctorat
Date de soutenance
2021-10-27Spécialité
Automatique, Productique, Signal et Image, Ingénierie cognitique
École doctorale
École doctorale des sciences physiques et de l’ingénieur (Talence, Gironde)Résumé
Durant les dix dernières années, les méthodes basées sur la géométrie Riemannienne et la géométrie de l'information ont eu un impact important sur le traitement des signaux et des images, la science des données, et ...Lire la suite >
Durant les dix dernières années, les méthodes basées sur la géométrie Riemannienne et la géométrie de l'information ont eu un impact important sur le traitement des signaux et des images, la science des données, et l'intelligence artificielle.L'objectif de cette thèse est de proposer de nouveaux algorithmes, basés sur la géométrie Riemannienne et la géométrie de l'information, pour l'estimation en ligne des lois dites à contours elliptiques, et de leurs mélanges.En général, l'estimation en ligne est réalisée à travers la minimisation d'une divergence statistique, la divergence de Kullback-Leibler, grâce à l'application d'une méthode de gradient Riemannien stochastique. Afin d'implémenter cette méthode, l'espace des paramètres de la famille de lois elliptiques (ou de mélanges de lois elliptiques) doit être équipé d'une métrique Riemannienne, de préférence la métrique d'information de Fisher.Malheureusement, pour les lois elliptiques, cette métrique est souvent inconnue, ou n'a pas d'expression analytique exploitable. Pour répondre à cette difficulté, nous avons introduit une alternative à la métrique d'information de Fisher, que nous avons appelée métrique d'information par composantes. En utilisant cette métrique, nous avons développé la méthode du gradient d'information par composantes.La méthode du gradient d'information par composantes est une méthode en ligne, avec un faible coût calculatoire, qui lui permet de prendre en compte les jeux de donnés massifs ou de grandes dimensions. De plus, cette méthode a deux variantes, une à pas d'optimisation décroissants, et l'autre à pas d'optimisation adaptatifs. Cette seconde variante permet d'éviter le choix manuel (habituellement très long et pénible) des pas d'optimisation, et d'atteindre une vitesse de convergence qui s'approche d'une vitesse exponentielle.Nous avons appliqué la méthode du gradient d'information par composantes à l'estimation de deux familles de lois elliptiques, les distributions Gaussiennes généralisées multivariées, et les lois de Student multivariées, ce qui nous a permis de mettre en évidence à la fois son faible coût calculatoire et sa vitesse de convergence optimale.Finalement, nous avons réalisé des applications concrètes, en traitement des images et vision par ordinateur, à la conversion de couleurs et à la classification de textures. Pour les images de haute résolution (avec plus de 2 millions de pixels), notre méthode du gradient d'information par composantes n'a besoin que d'une centaine de secondes pour effectuer le travail, avec des résultats nettement meilleurs qu'avec les autres méthodes.< Réduire
Résumé en anglais
Over the past ten years, methods based on Riemannian geometry and on information geometry have had a notable impact on signal and image processing, as well as on data science and artificial intelligence.The aim of this ...Lire la suite >
Over the past ten years, methods based on Riemannian geometry and on information geometry have had a notable impact on signal and image processing, as well as on data science and artificial intelligence.The aim of this thesis is to propose new algorithms, based on Riemannian geometry and information geometry, for the estimation of so-called elliptically-contoured distributions and of their mixture distributions.In general; online estimation is achieved by minimising a statistical divergence function, the Kullback-Leibler divergence, using a Riemannian stochastic gradient method. In order to implement this method, the parameter space of the family of elliptically-contoured distributions has to be equipped with a Riemannian metric, preferably the Fisher information metric.Unfortunately, this metric is often unknown, or does not have a useful closed-form expression. In order to overcome this difficulty, we have introduced an alternative metric, which we have called the component-wise information metric. Using this method, we have developed the component-wise information gradient method.The component-wise information gradient method is an online method, with a low computational cost, which allows it to process large or high-dimensional datasets. Moreover, this method has two versions, a decreasing step-size version and an adaptive step-size version. This second version avoids the often very laborious manual choice of step-sizes, and also achieves a nearly-exponential rate of convergence.We have applied the component-wise information gradient method to two families of elliptically-contoured distributions, multivariate generalised Gaussian distributions, and multivariate Student t-distributions, and experimentally verified the low computational cost and optimal rate of convergence of this method.Finally, we have carried out two concrete applications, in image processing and computer vision, to color conversion and to texture classification. For high-resolution images (with more than 2 million pixels), our component-wise information gradient method only needs about a hundred seconds in order to do the job, with much better results, in comparison to other methods.< Réduire
Mots clés
Estimation en ligne
Geometrie Riemannienne
Gradient d'information
Traitement des signaux et images
Mots clés en anglais
Online estimation
Riemannian geometry
Information gradient
Signal and image processing
Origine
Importé de STARUnités de recherche