Afficher la notice abrégée

dc.contributor.advisorJean Roman(jean.roman@inria.fr)
hal.structure.identifierEfficient runtime systems for parallel architectures [RUNTIME]
hal.structure.identifierLaboratoire Bordelais de Recherche en Informatique [LaBRI]
dc.contributor.authorGOGLIN, Brice
dc.contributor.otherChristine Morin (rapporteur)
dc.contributor.otherFranck Cappello (rappoteur)
dc.contributor.otherVivien Quéma (rapporteur)
dc.contributor.otherPascale Rossé-Laurent (examinateur)
dc.contributor.otherJesper Larsson Träff (examinateur)
dc.date.accessioned2024-04-15T09:57:59Z
dc.date.available2024-04-15T09:57:59Z
dc.identifier.urihttps://oskar-bordeaux.fr/handle/20.500.12278/198962
dc.description.abstractAvec l'utilisation de plus en plus répandue de la simulation numérique dans de nombreuses branches de l'industrie, le calcul haute performance devient essentiel à la société. Si les plates-formes de calcul parallèle de plus en plus puissantes continuent à être construites, leur utilisation devient cependant de plus en plus un casse-tête. En effet, leur complexité croît avec la multiplication des ressources de calcul et de stockage impliquées, leurs fonctionnalités hétérogènes, et leur répartition non-uniforme. De nouveaux outils logiciels sont nécessaires pour faciliter l'exploitation de ces plates-formes. Je présente tout d'abord mes travaux visant à rendre plus accessibles et portables les mécanismes de communication développés par les constructeurs de réseaux haute performance pour le calcul. J'ai appliqué ce principe d'une part aux réseaux traditionnels de type Ethernet, et d'autre part aux communications entre processus locaux, afin d'améliorer les performances du passage de messages (MPI) sans dépendre de technologies matérielles spécialisées. J'explique ensuite comment faciliter la gestion des calculateurs hiérarchiques modernes. Il s'agit, d'une part, de modéliser ces plates-formes en représentant l'organisation des ressources de manière suffisamment simple pour masquer les détails techniques du matériel, et suffisamment précise pour permettre aux algorithmes de prendre des décisions de placement ou d'ordonnancement ; d'autre part, je propose des outils améliorant la gestion des architectures modernes où l'accès à la mémoire et aux périphériques n'est plus uniforme. Cela permet d'améliorer les performances de bibliothèques de calcul parallèle en tenant compte de la localité.
dc.description.abstractEnScientific simulation is increasingly involved in industry and high performance computing is therefore important to today's society. However, the more powerful parallel computing platforms become, the more difficult their use is. Indeed, their complexity keeps growing considering the increasing amount of computing and storage resources involved, their heterogeneous features and their non-uniform locality. There is a need for new tools facilitating the exploitation of these parallel platforms. I first present how specialized high-performance networking mechanisms can be made more accessible and portable. This idea is applied to traditional networks such as Ethernet and communication between local processes, so as to improve message passing (MPI) performance without requiring proprietary hardware technologies. Then I explain how the management of modern hierarchical computing servers can be eased. Hardware platforms can be modeled based on the resource locality in simple manner, to hide technical details, but precise enough to let placement and scheduling algorithms take relevant decisions. Then I propose several tools enhancing the use of modern architectures where memory or I/O access is non-uniform. They provide performance improvements in parallel computing libraries by taking locality into account.
dc.language.isofr
dc.subjectcalcul parallèle
dc.subjectcalcul haute performance
dc.subjectcommunications MPI
dc.subjectcommunication intranoeud
dc.subjectaffinité
dc.subjectlocalité
dc.subjecttopologie
dc.subjectNUIOA
dc.subject.enparallel computing
dc.subject.enHPC
dc.subject.enMPI communication
dc.subject.enEthernet
dc.subject.enintranode communication
dc.subject.enaffinity
dc.subject.enlocality
dc.subject.entopology
dc.subject.enNUMA
dc.titleVers des mécanismes génériques de communication et une meilleure maîtrise des affinités dans les grappes de calculateurs hiérarchiques
dc.title.enTowards generic Communication Mechanisms and better Affinity Management in Clusters of Hierarchical Nodes
dc.typeHDR
dc.subject.halInformatique [cs]/Calcul parallèle, distribué et partagé [cs.DC]
dc.subject.halInformatique [cs]/Système d'exploitation [cs.OS]
dc.subject.halInformatique [cs]/Architectures Matérielles [cs.AR]
dc.subject.halInformatique [cs]/Réseaux et télécommunications [cs.NI]
bordeaux.hal.laboratoriesLaboratoire Bordelais de Recherche en Informatique (LaBRI) - UMR 5800*
bordeaux.institutionUniversité de Bordeaux
bordeaux.institutionBordeaux INP
bordeaux.institutionCNRS
bordeaux.type.institutionUniversité de Bordeaux
hal.identifiertel-00979512
hal.version1
hal.origin.linkhttps://hal.archives-ouvertes.fr//tel-00979512v1
bordeaux.COinSctx_ver=Z39.88-2004&rft_val_fmt=info:ofi/fmt:kev:mtx:journal&rft.title=Vers%20des%20m%C3%A9canismes%20g%C3%A9n%C3%A9riques%20de%20communication%20et%20une%20meilleure%20ma%C3%AEtrise%20des%20affinit%C3%A9s%20dans%20les%20grappes%20de%20calcu&rft.atitle=Vers%20des%20m%C3%A9canismes%20g%C3%A9n%C3%A9riques%20de%20communication%20et%20une%20meilleure%20ma%C3%AEtrise%20des%20affinit%C3%A9s%20dans%20les%20grappes%20de%20calc&rft.au=GOGLIN,%20Brice&rft.genre=unknown


Fichier(s) constituant ce document

FichiersTailleFormatVue

Il n'y a pas de fichiers associés à ce document.

Ce document figure dans la(les) collection(s) suivante(s)

Afficher la notice abrégée