Afficher la notice abrégée

dc.contributor.advisorPellegrini, François
dc.contributor.advisorRamet, Pierre
dc.contributor.authorLACOSTE, Xavier
dc.contributor.otherDuff, Lain
dc.contributor.otherNkonga, Boniface
dc.contributor.otherLatu, Guillaume
dc.contributor.otherButtari, Alfredo
dc.date2015-02-18
dc.identifier.urihttp://www.theses.fr/2015BORD0016/abes
dc.identifier.urihttps://tel.archives-ouvertes.fr/tel-01222565
dc.identifier.nnt2015BORD0016
dc.description.abstractL’évolution courante des machines montre une croissance importante dans le nombre et l’hétérogénéité des unités de calcul. Les développeurs doivent alors trouver des alternatives aux modèles de programmation habituels permettant de produire des codes de calcul à la fois performants et portables. PaStiX est un solveur parallèle de système linéaire creux par méthodes directe. Il utilise un ordonnanceur de tâche dynamique pour être efficaces sur les machines modernes multi-coeurs à mémoires hiérarchiques. Dans cette thèse, nous étudions les bénéfices et les limites que peut nous apporter le remplacement de l’ordonnanceur interne, très spécialisé, du solveur PaStiX par deux systèmes d’exécution génériques : PaRSEC et StarPU. Pour cela l’algorithme doit être décrit sous la forme d’un graphe de tâches qui est fournit aux systèmes d’exécution qui peuvent alors calculer une exécution optimisée de celui-ci pour maximiser l’efficacité de l’algorithme sur la machine de calcul visée. Une étude comparativedes performances de PaStiX utilisant ordonnanceur interne, PaRSEC, et StarPU a été menée sur différentes machines et est présentée ici. L’analyse met en évidence les performances comparables des versions utilisant les systèmes d’exécution par rapport à l’ordonnanceur embarqué optimisé pour PaStiX. De plus ces implémentations permettent d’obtenir une accélération notable sur les machines hétérogènes en utilisant lesaccélérateurs tout en masquant la complexité de leur utilisation au développeur. Dans cette thèse nous étudions également la possibilité d’obtenir un solveur distribué de système linéaire creux par méthodes directes efficace sur les machines parallèles hétérogènes en utilisant les systèmes d’exécution à base de tâche. Afin de pouvoir utiliser ces travaux de manière efficace dans des codes parallèles de simulations, nous présentons également une interface distribuée, orientée éléments finis, permettant d’obtenir un assemblage optimisé de la matrice distribuée tout en masquant la complexité liée à la distribution des données à l’utilisateur.
dc.description.abstractEnThe ongoing hardware evolution exhibits an escalation in the number, as well as in the heterogeneity, of computing resources. The pressure to maintain reasonable levels of performance and portability forces application developers to leave the traditional programming paradigms and explore alternative solutions. PaStiX is a parallel sparse direct solver, based on a dynamic scheduler for modern hierarchical manycore architectures. In this thesis, we study the benefits and the limits of replacing the highly specialized internal scheduler of the PaStiX solver by two generic runtime systems: PaRSEC and StarPU. Thus, we have to describe the factorization algorithm as a tasks graph that we provide to the runtime system. Then it can decide how to process and optimize the graph traversal in order to maximize the algorithm efficiency for thetargeted hardware platform. A comparative study of the performance of the PaStiX solver on top of its original internal scheduler, PaRSEC, and StarPU frameworks is performed. The analysis highlights that these generic task-based runtimes achieve comparable results to the application-optimized embedded scheduler on homogeneous platforms. Furthermore, they are able to significantly speed up the solver on heterogeneous environments by taking advantage of the accelerators while hiding the complexity of their efficient manipulation from the programmer. In this thesis, we also study the possibilities to build a distributed sparse linear solver on top of task-based runtime systems to target heterogeneous clusters. To permit an efficient and easy usage of these developments in parallel simulations, we also present an optimized distributed interfaceaiming at hiding the complexity of the construction of a distributed matrix to the user.
dc.language.isoen
dc.subjectRésolution de systèmes linéaires creux
dc.subjectGPU
dc.subjectMulti-coeur
dc.subjectMPI,
dc.subjectOrdonnanceur à base de tâches
dc.subject.enSparse direct solver
dc.subject.enGPU
dc.subject.enMulti-core
dc.subject.enMPI
dc.subject.enTasks based runtime systems
dc.titleOrdonnancement et optimisations mémoire pour un solveur creux par méthodes directes sur des machines hétérogènes
dc.title.enScheduling and memory optimizations for sparse direct solver on multi-core/multi-gpu duster systems
dc.typeThèses de doctorat
dc.contributor.jurypresidentDesprez, Frédéric
bordeaux.hal.laboratoriesLaboratoire bordelais de recherche en informatique
bordeaux.hal.laboratoriesHiePACS
bordeaux.hal.laboratoriesInstitut national de recherche en informatique et en automatique (France). Centre de recherche Bordeaux - Sud-Ouest
bordeaux.type.institutionBordeaux
bordeaux.thesis.disciplineInformatique
bordeaux.ecole.doctoraleÉcole doctorale de mathématiques et informatique (Talence, Gironde)
star.origin.linkhttps://www.theses.fr/2015BORD0016
dc.contributor.rapporteurDavis, Timothy A.
dc.contributor.rapporteurLi, Xiaoye Sherry
bordeaux.COinSctx_ver=Z39.88-2004&rft_val_fmt=info:ofi/fmt:kev:mtx:journal&rft.title=Ordonnancement%20et%20optimisations%20m%C3%A9moire%20pour%20un%20solveur%20creux%20par%20m%C3%A9thodes%20directes%20sur%20des%20machines%20h%C3%A9t%C3%A9rog%C3%A8nes&rft.atitle=Ordonnancement%20et%20optimisations%20m%C3%A9moire%20pour%20un%20solveur%20creux%20par%20m%C3%A9thodes%20directes%20sur%20des%20machines%20h%C3%A9t%C3%A9rog%C3%A8nes&rft.au=LACOSTE,%20Xavier&rft.genre=unknown


Fichier(s) constituant ce document

FichiersTailleFormatVue

Il n'y a pas de fichiers associés à ce document.

Ce document figure dans la(les) collection(s) suivante(s)

Afficher la notice abrégée