Première version | |
---|---|
Écrit en | Fortran |
Type |
Interface de programmation Bibliothèque logicielle |
Site web | www.netlib.org/blas |
Basic Linear Algebra Subprograms (BLAS) est un ensemble de fonctions standardisées (interface de programmation) réalisant des opérations de base de l'algèbre linéaire telles que des additions de vecteurs, des produits scalaires ou des multiplications de matrices. Ces fonctions ont d'abord été publiées en 1979 et sont utilisées dans des bibliothèques plus développées comme LAPACK. Largement utilisées pour le calcul haute performance, ces fonctions ont été développées de manière très optimisée par des constructeurs de calculateurs comme Intel et AMD, ou encore par d'autres auteurs (Goto (en) BLAS et ATLAS (en) - une version portable de BLAS - en sont des exemples). Les tests de performance LINPACK utilisent massivement la fonction multiplication de matrices générales (DGEMM) de BLAS.
Jusqu'au début des années 1970, les codes de calcul rapide utilisaient des routines optimisées codées directement en langage machine pour l'évaluation de certaines fonctions[1]. Entre 1972 et 1978, on identifia les fonctions les plus couramment appelées dans ces programmes. Ainsi, en 1964, alors qu'il travaillait sur le projet de l'IBM 7030, Sweeney[2] rassembla des statistiques sur les calculs en virgule flottante les plus fréquemment exécutés sur les IBM 704, et s'aperçut que les sommations simples représentaient 11 % de l'ensemble[3]. De ces programmes, on fit des routines à nom générique, afin de pouvoir les utiliser en « boîte noire » : ainsi, les programmes devenaient plus faciles à lire et à déboguer, tandis qu'on continuait à accélérer ces routines.
Certains ordinateurs permettaient d'accélérer les calculs d'opérations (sommes ou produits de nombres en virgule flottante) dès qu'on enchaînait plus d'une dizaine de ces opérations à la suite (architecture pipeline) ; d'autres, tels le RS/6000, disposaient d'une architecture leur permettant de calculer à la même vitesse (avec le même nombre de cycles d'horloge) un produit suivi d'une addition (x*y +z), et un produit simple (x*y) ou une addition (x + y)[1] ; d'autres spécificités machines (présence de coprocesseurs, etc.) apparaissaient sur le marché, qu'il fallait exploiter. C'est ainsi qu'entre 1984 et 1986, BLAS fut augmentée d'opérations de niveau 2 (produits matrice-vecteur). Les progrès du calcul parallèle montraient que l'architecture mémoire joue un rôle critique sur le temps d'accès aux données. Une ré-écriture des algorithmes, localisant au maximum les calculs dans la mémoire cache, provoque une accélération spectaculaire. En 1987-88, les opérations de niveau 3 (produits et sommes matrice-matrice) voyaient le jour : BLAS 3 incite les programmeurs à privilégier les calculs par blocs avec des blocs pleins (à minimum de termes nuls).
Les opérations d'algèbre linéaire mises en œuvre dans BLAS sont réparties en 3 niveaux de complexité croissante.