Un superordinateur ou supercalculateur est un ordinateur conçu pour atteindre les plus hautes performances possibles avec les techniques connues lors de sa conception, en particulier en ce qui concerne la vitesse de calcul. Pour des raisons de performance, c'est presque toujours un ordinateur central, dont les tâches sont fournies en traitement par lots.
La science des superordinateurs est appelée « calcul haute performance » (en anglais : high-performance computing ou HPC). Cette discipline se divise en deux : la partie matérielle (conception électronique de l'outil de calcul) et la partie logicielle (adaptation logicielle du calcul à l'outil). Ces deux parties font appel à des champs de connaissances différents.
Les premiers superordinateurs (ou supercalculateurs) apparaissent dans les années 1960.
En 1961, IBM développe, à l’instigation du Lawrence Livermore Laboratory[2], l’IBM Stretch ou IBM 7030, dont une unité est exploitée en France[3] en 1963.
À cette époque, et jusque dans les années 1970, le plus important constructeur mondial de superordinateurs est la société Control Data Corporation (CDC), avec son concepteur Seymour Cray[4]. Par la suite, Cray Research, fondée par Seymour Cray après son départ de CDC, prend l’avantage sur ses autres concurrents, jusqu’aux alentours de l'année 1990. Dans les années 1980, à l’image de ce qui s’était produit sur le marché des micro-ordinateurs des années 1970, de nombreuses petites sociétés se lancèrent sur ce marché, mais la plupart disparaissent dans le « crash » du marché des superordinateurs[5], au milieu des années 1990.
Ce que désigne le terme superordinateur varie avec le temps car, comme le suggère la Loi de Moore, les ordinateurs les plus puissants du monde à un moment donné tendent à être égalés, puis dépassés, par des machines d’utilisation courante plusieurs années après. Les premiers superordinateurs CDC étaient de simples ordinateurs mono-processeurs (mais possédant parfois jusqu’à dix processeurs périphériques pour les entrées-sorties) environ dix fois plus rapides que la concurrence. Dans les années 1970, la plupart des superordinateurs adoptent un processeur vectoriel, qui effectue le décodage d’une instruction une seule fois pour l’appliquer à toute une série d’opérandes.
C’est seulement vers la fin des années 1980 que la technique des systèmes massivement parallèles est adoptée, avec l’utilisation dans un même superordinateur de milliers de processeurs. Depuis le milieu des années 1990, certains de ces superordinateurs parallèles utilisent des microprocesseurs de type « RISC », conçus pour des ordinateurs de série, comme les PowerPC[6] ou les PA-RISC. D’autres supercalculateurs utilisent des processeurs de moindre coût, de type « CISC », microprogrammés en RISC dans la puce électronique (AMD ou Intel) : le rendement en est un peu moins élevé, mais le canal d’accès à la mémoire — souvent un goulet d’étranglement — est bien moins sollicité.
Au XXIe siècle, les superordinateurs sont le plus souvent conçus comme des modèles uniques par des constructeurs informatiques « traditionnels » comme International Business Machines (IBM), Hewlett-Packard (HP), ou Bull, qu’ils aient derrière eux une longue tradition en la matière (IBM) ou qu’ils aient racheté dans les années 1990 des entreprises spécialisées, alors en difficulté, pour acquérir de l’expérience dans ce domaine.
Les superordinateurs tirent leur supériorité sur les ordinateurs conventionnels à la fois grâce à :
leur architecture, en « pipeline » (exécution d’une instruction identique sur une longue série de données) ou parallèle (nombre très élevé de processeurs fonctionnant chacun sur une partie du calcul), qui leur permet d’exécuter plusieurs tâches simultanément ;
Ils sont presque toujours conçus spécifiquement pour un certain type de tâches (le plus souvent des calculs numériques scientifiques : calcul matriciel ou vectoriel) et ne cherchent pas de performance particulière dans d'autres domaines.
L’architecture mémorielle des supercalculateurs est étudiée pour fournir en continu les données à chaque processeur afin d’exploiter au maximum sa puissance de calcul. Les performances supérieures de la mémoire (meilleurs composants et meilleure architecture) expliquent pour une large part l’avantage des superordinateurs sur les ordinateurs classiques.
Comme pour tout système parallèle, la loi d’Amdahl s’applique, les concepteurs de superordinateurs consacrant une partie de leurs efforts à éliminer les parties non parallélisables du logiciel et à développer des améliorations matérielles pour supprimer les goulots d'étranglement restants.
Principaux obstacles techniques
D'une part, les superordinateurs ont souvent besoin de plusieurs mégawatts de puissance électrique. Cette alimentation doit aussi être de qualité. En conséquence, ils produisent une grande quantité de chaleur et doivent donc être refroidis pour fonctionner normalement. Le refroidissement (par exemple à air) de ces ordinateurs pose souvent un problème important de climatisation.
D'autre part, les données ne peuvent circuler plus vite que la vitesse de la lumière entre deux parties d'un ordinateur. Lorsque la taille d’un superordinateur dépasse plusieurs mètres, le temps de latence entre certains composants se compte en dizaines de nanosecondes. Les éléments sont donc disposés pour limiter la longueur des câbles qui relient les composants. Sur le Cray-1 ou le Cray-II, par exemple, ils étaient disposés en cercle.
De nos jours, ces ordinateurs sont capables de traiter et de communiquer de très importants volumes de données en très peu de temps. La conception doit assurer que ces données puissent être lues, transférées et stockées rapidement. Dans le cas contraire, la puissance de calcul des processeurs serait sous-exploitée (goulot d’étranglement).
En , l'IDRIS et son Blue Gene/P Solution d'IBM affiche, selon le test LINPACK, une puissance de 120 téraflops et remporte la 10e place[24].
En , la première machine française a pour nom Jade. De type « SGIAltix(en) » elle est basée au Centre informatique national de l'enseignement supérieur (CINES) de Montpellier. Ce supercalculateur se classe au 28e rang mondial avec 128 téraflops au test LINPACK. Peu après, la configuration de la machine Jade est complétée pour atteindre une performance de 237 téraflops. La machine passe en au 18e rang du TOP500[25]. C’est alors le troisième système informatique européen et le premier français, il est destiné à la recherche publique.
En , le record français est détenu par le TERA-100 de Bull. Installé au CEA à Bruyères-le-Châtel pour les besoins de la simulation militaire nucléaire française, avec une performance de 1 050 téraflops, cette machine se hisse au 6e rang mondial et gagne le 1er rang européen[26]. Elle est constituée de 17 296 processeurs Intel Xeon 7500 dotés chacun de huit cœurs et connectés par un réseau de type InfiniBand.
En , Curie, un système conçu par Bull pour le GENCI, installé sur le site du Très Grand Centre de Calcul (TGCC) à Bruyères-le-Châtel, dispose d'une puissance de 1,359 pétaflops[27]. Il sera le supercalculateur le plus puissant de France en prenant la 9e place du classement mondial[28]. Il est conçu pour délivrer 2 pétaflops.
En , les systèmes Ada et Turing construits par IBM sont installés à l'IDRIS d'Orsay. La somme de leur puissance dépasse le pétaflops. Ces deux machines sont à la disposition des chercheurs. En mars 2013, le supercalculateur Pangea[29] détenu par la société Total est inauguré, il devient le système le plus performant jamais installé en France. Sa puissance de calcul s'élève à 2,3 pétaflops. Équivalant à 27 000 ordinateurs de bureau réunis, il obtient la 11e place mondiale[30].
En , le système Occigen, conçu par Bull, Atos technologies, pour le GENCI est installé sur le site du CINES ; il est doté d'une puissance de 2,1 pétaflops. Il se situait en 26e position au classement mondial du TOP500 de [31].
En , Total annonce avoir triplé la capacité de calcul de son supercalculateur Pangea, passant à une puissance de calculs de 6,7 pétaflops en pics de performance et de 5,28 pétaflops en puissance utilisable. Cela lui permet de retrouver le 11e rang au TOP500[30] et le place ainsi en tête du secteur industriel mondial[32].
En , le GENCI met en service Adastra, un superordinateur fourni par HPE-Cray hébergé au CINES. Ses 46,10 pétaflops lui permettent de gagner le 10e rang mondial en matière de performances de calcul[33].
Windows ne fut exécuté que par deux des 500 supercalculateurs les plus puissants de la planète, soit 0,4 %[9], tandis que BSD n'était présent que sur une seule machine du top 500, soit 0,2 %. Enfin, les autres configurations (« Mixed », soit un ensemble de plusieurs types de systèmes d'exploitation) représentaient 4,6 %.[réf. souhaitée]
En , Linux équipe la totalité des 500 superordinateurs les plus puissants au monde[35].
↑(en) C.J. Bashe et al, IBM's Early Computers, MIT Press, , 744 p. (ISBN0262022257)
↑Albert Amouyal, Phlippe Chatelin et Pierre-E. Mounier-Kuhn (dir.), Deuxième Colloque sur l'Histoire de l'Informatique en France, vol. 1, Paris, Conservatoire National des Arts et Métiers, , 366+368 + 21pl. (ISBN2-9502887-3-1), « Les débuts de l'informatique au Commissariat à l'Energie Atomique (1952-1972) », p. 11-28.
↑(en) Charles Murray, The Supermen : The Story of Seymour Cray and the Technical Wizards Behind the Supercomputer, New York, John Wiley and Sons, , 232 p. (ISBN0-471-04885-2).
↑Virginie Robert, « L'américain Cray Computer acculé au dépôt de bilan », Les Echos,
↑(en) B. Burgess et M. Alexander et al., Proceedings of COMPCON '94, San Francisco, IEEE (ISBN0-8186-5380-9, DOI10.1109/CMPCON.1994.282895), « The PowerPC603 microprocessor : a high performance, low power, superscalar RISC microprocessor ».
↑(en) Sergei Kurgalin et Sergei Borzunov, « A Practical Approach to High-Performance Computing », SpringerLink, (DOI10.1007/978-3-030-27558-7, lire en ligne, consulté le )