On the Arithmetic Intensity of Distributed-Memory Dense Matrix Multiplication Involving a Symmetric Input Matrix (SYMM)
BUTTARI, Alfredo
Algorithmes Parallèles et Optimisation [IRIT-APO]
Centre National de la Recherche Scientifique [CNRS]
Voir plus >
Algorithmes Parallèles et Optimisation [IRIT-APO]
Centre National de la Recherche Scientifique [CNRS]
BUTTARI, Alfredo
Algorithmes Parallèles et Optimisation [IRIT-APO]
Centre National de la Recherche Scientifique [CNRS]
Algorithmes Parallèles et Optimisation [IRIT-APO]
Centre National de la Recherche Scientifique [CNRS]
EYRAUD-DUBOIS, Lionel
Laboratoire Bordelais de Recherche en Informatique [LaBRI]
Outils et Optimisations pour le Calcul Haute Performance et l'Apprentissage [TOPAL]
Laboratoire Bordelais de Recherche en Informatique [LaBRI]
Outils et Optimisations pour le Calcul Haute Performance et l'Apprentissage [TOPAL]
FAVERGE, Mathieu
Outils et Optimisations pour le Calcul Haute Performance et l'Apprentissage [TOPAL]
Outils et Optimisations pour le Calcul Haute Performance et l'Apprentissage [TOPAL]
FRANC, Alain
Biodiversité, Gènes & Communautés [BioGeCo]
Pleiade, from patterns to models in computational biodiversity and biotechnology [PLEIADE]
Biodiversité, Gènes & Communautés [BioGeCo]
Pleiade, from patterns to models in computational biodiversity and biotechnology [PLEIADE]
GUERMOUCHE, Abdou
Outils et Optimisations pour le Calcul Haute Performance et l'Apprentissage [TOPAL]
Laboratoire Bordelais de Recherche en Informatique [LaBRI]
Outils et Optimisations pour le Calcul Haute Performance et l'Apprentissage [TOPAL]
Laboratoire Bordelais de Recherche en Informatique [LaBRI]
JEGO, Antoine
Algorithmes Parallèles et Optimisation [IRIT-APO]
Institut National Polytechnique (Toulouse) [Toulouse INP]
Algorithmes Parallèles et Optimisation [IRIT-APO]
Institut National Polytechnique (Toulouse) [Toulouse INP]
PERESSONI, Romain
COmposabilité Numerique and parallèle pour le CAlcul haute performanCE [CONCACE]
< Réduire
COmposabilité Numerique and parallèle pour le CAlcul haute performanCE [CONCACE]
Langue
en
Communication dans un congrès
Ce document a été publié dans
International Parallel and Distributed Processing Symposium, International Parallel and Distributed Processing Symposium, IPDPS 2023 - 37th International Parallel and Distributed Processing Symposium, 2023-05-15, St. Petersburg, FL. 2023-06p. 357-367
Résumé en anglais
Dense matrix multiplication involving a symmetric input matrix (SYMM) is implemented in reference distributed-memory codes with the same data distribution as its general analogue (GEMM). We show that, when the symmetric ...Lire la suite >
Dense matrix multiplication involving a symmetric input matrix (SYMM) is implemented in reference distributed-memory codes with the same data distribution as its general analogue (GEMM). We show that, when the symmetric matrix is dominant, such a 2D block-cyclic (2D BC) scheme leads to a lower arithmetic intensity (AI) of SYMM than that of GEMM by a factor of 2. We propose alternative data distributions preserving the memory benefit of SYMM of storing only half of the matrix while achieving up to the same AI as GEMM. We also show that, in the case we can afford the same memory footprint as GEMM, SYMM can achieve a higher AI. We propose a task-based design of SYMM independent of the data distribution. This design allows for scalable A-stationary SYMM with which all discussed data distributions, may they be very irregular, can be easily assessed. We have integrated the resulting code in a reduction dimension algorithm involving a randomized singular value decomposition dominated by SYMM. An experimental study shows a compelling impact on performance.< Réduire
Mots clés en anglais
Matrix multiplication
SYMM
GEMM
2DBC
task-based programming
Symmetric
SBC
TBC
3D
2.5D
Project ANR
Solveurs pour architectures hétérogènes utilisant des supports d'exécution, objectif scalabilité - ANR-19-CE46-0009
Origine
Importé de halUnités de recherche