Codes correcteurs d’erreur quantique topologiques au-delà de la dimension 2
Langue
en
Thèses de doctorat
Date de soutenance
2019-12-06Spécialité
Mathématiques Pures
École doctorale
École doctorale de mathématiques et informatique (Talence, Gironde)Résumé
La mémoire quantique est constituée de matériaux présentant des effets quantiques comme la superposition. C’est cette possibilité de superposition qui distingue l’élément élémentaire de mémoire quantique, le qubit, de son ...Lire la suite >
La mémoire quantique est constituée de matériaux présentant des effets quantiques comme la superposition. C’est cette possibilité de superposition qui distingue l’élément élémentaire de mémoire quantique, le qubit, de son analogue classique, le bit. Contrairement à un bit classique, un qubit peut être dans un état différent de l’état 0 et de l’état 1. Une difficulté majeure de la réalisation physique de mémoire quantique est la nécessité d’isoler le système utilisé de son environnement. En effet l’interaction d’un système quantique avec son environnement entraine un phénomène appelé décohérence qui se traduit par des erreurs sur l’état du système quantique. Dit autrement, à cause de la décohérence, il est possible que les qubits ne soient pas dans l’état dans lequel il est prévu qu’ils soient. Lorsque ces erreurs s’accumulent le résultat d’un calcul quantique a de grandes chances de ne pas être le résultat attendu. La correction d’erreur quantique est un ensemble de techniques permettant de protéger l’information quantique de ces erreurs. Elle consiste à réaliser un compromis entre le nombre de qubits et leur qualité. Plus précisément un code correcteur d’erreur permet à partir de N qubits physiques bruités de simuler un nombre plus petit K de qubits logiques, c’est-à-dire virtuels, moins bruités. La famille de codes la plus connue est sans doute celle découverte par le physicien Alexei Kitaev: le code torique. Cette construction peut être généralisée à des formes géométriques (variétés) autres qu’un tore. En 2014, Larry Guth et Alexander Lubotzky proposent une famille de code définie à partir de variétés hyperboliques de dimension 4 et montrent que cette famille fournit un compromis intéressant entre le nombre K de qubits logiques et le nombre d’erreurs qu’elle permet de corriger. Dans cette thèse, nous sommes partis de la construction de Guth et Lubotzky et en avons donné une version plus explicite et plus régulière. Pour définir un pavage régulier de l’espace hyperbolique de dimension 4, nous utilisons le groupe de symétrie de symbole de Schläfli {4, 3, 3, 5}. Nous en donnons la représentation matricielle correspondant au modèle de l’hyperboloïde et à un hypercube centré sur l’origine et dont les faces sont orthogonales aux quatre axes de coordonnée. Cette construction permet d’obtenir une famille de codes quantiques encodant un nombre de qubits logiques proportionnel au nombre de qubits physiques et dont la distance minimale croît au moins comme N0.1. Bien que ces paramètres soient également ceux de la construction de Guth et Lubotzky, la régularité de cette construction permet de construire explicitement des exemples de taille raisonnable et d’envisager des algorithmes de décodage qui exploitent cette régularité. Dans un second chapitre nous considérons une famille de codes quantiques hyperboliques 4D de symbole de Schläfli {5, 3, 3, 5}. Après avoir énoncé une façon de prendre le quotient des groupes correspondant en conservant la structure locale du groupe, nous construisons les matrices de parité correspondant à des codes quantiques ayant 144, 720, 9792, 18 000 et 90 000 qubits physiques. Nous appliquons un algorithme de Belief Propagation au décodage de ces codes et analysons les résultats numériquement. Dans un troisième et dernier chapitre nous définissons une nouvelle famille de codes quantiques à partir de cubes de dimension arbitrairement grande. En prenant le quotient d’un cube de dimension n par un code classique de paramètres [n, k, d] et en identifiant les qubits physiques avec les faces de dimension p du polytope quotient ainsi défini, on obtient un code quantique. Cette famille de codes quantiques a l’originalité de considérer des quotients par des codes classiques. En cela elle s’éloigne de la topologie et appartient plutôt à la famille des codes homologiques.< Réduire
Résumé en anglais
Error correction is the set of techniques used in order to store, process and transmit information reliably in a noisy context. The classical theory of error correction is based on encoding classical information redundantly. ...Lire la suite >
Error correction is the set of techniques used in order to store, process and transmit information reliably in a noisy context. The classical theory of error correction is based on encoding classical information redundantly. A major endeavor of the theory is to find optimal trade-offs between redundancy, which we try to minimize, and noise tolerance, which we try to maximize. The quantum theory of error correction cannot directly imitate the redundant schemes of the classical theory because it has to cope with the no-cloning theorem: quantum information cannot be copied. Quantum error correction is nonetheless possible by spreading the information on more quantum memory elements than would be necessary. In quantum information theory, dilution of the information replaces redundancy since copying is forbidden by the laws of quantum mechanics. Besides this conceptual difference, quantum error correction inherits a lot from its classical counterpart. In this PhD thesis, we are concerned with a class of quantum error correcting codes whose classical counterpart was defined in 1961 by Gallager [Gal62]. At that time, quantum information was not even a research domain yet. This class is the family of low density parity check (LDPC) codes. Informally, a code is said to be LDPC if the constraints imposed to ensure redundancy in the classical setting or dilution in the quantum setting are local. More precisely, this PhD thesis focuses on a subset of the LDPC quantum error correcting codes: the homological quantum error correcting codes. These codes take their name from the mathematical field of homology, whose objects of study are sequences of linear maps such that the kernel of a map contains the image of its left neighbour. Originally introduced to study the topology of geometric shapes, homology theory now encompasses more algebraic branches as well, where the focus is more abstract and combinatorial. The same is true of homological codes: they were introduced in 1997 by Kitaev [Kit03] with a quantum code that has the shape of a torus. They now form a vast family of quantum LDPC codes, some more inspired from geometry than others. Homological quantum codes were designed from spherical, Euclidean and hyperbolic geometries, from 2-dimensional, 3-dimensional and 4- dimensional objects, from objects with increasing and unbounded dimension and from hypergraph or homological products. After introducing some general quantum information concepts in the first chapter of this manuscript, we focus in the two following ones on families of quantum codes based on 4-dimensional hyperbolic objects. We highlight the interplay between their geometric side, given by manifolds, and their combinatorial side, given by abstract polytopes. We use both sides to analyze the corresponding quantum codes. In the fourth and last chapter we analyze a family of quantum codes based on spherical objects of arbitrary dimension. To have more flexibility in the design of quantum codes, we use combinatorial objects that realize this spherical geometry: hypercube complexes. This setting allows us to introduce a new link between classical and quantum error correction where classical codes are used to introduce homology in hypercube complexes.< Réduire
Mots clés
Quantique
Code correcteur
Homologie
Topologie
Mots clés en anglais
Quantum
Error correcting code
Homology
Topology
Origine
Importé de STARUnités de recherche