Nvidia dévoile son architecture GPU Ampere de nouvelle génération. Le premier GPU à utiliser Ampere qui sera le nouvel A100 de Nvidia, conçu pour le calcul scientifique, les graphiques cloud et l’analyse de données. Bien qu’il y ait eu beaucoup de rumeurs autour des plans Ampère de Nvidia pour les cartes GeForce RTX 3080, l’A100 sera principalement utilisé dans les centres de données.

La dernière poussée de Nvidia en matière de centre de données survient au milieu d’une pandémie et d’une énorme augmentation de la demande de cloud computing. Décrivant la situation des coronavirus comme “terriblement tragique”, le PDG de Nvidia, Jensen Huang, a noté que l’utilisation des services dans le cloud va connaître une forte augmentation, lors d’un point de presse.

L’A100 possède plus de 54 milliards de transistors, ce qui en fait le plus grand processeur 7 nm au monde. C’est pratiquement aux limites théoriques de ce qui est possible dans la fabrication de semi-conducteurs aujourd’hui.

Nvidia renforce ses cœurs Tensor pour les rendre plus faciles à utiliser pour les développeurs, et l’A100 comprendra également 19,5 téraflops de performances FP32, 6 912 cœurs CUDA, 40 Go de mémoire et 1,6 To / s de bande passante mémoire. Cependant, toutes ces performances ne vont pas alimenter la dernière version d’Assassin’s Creed.

Au lieu de cela, Nvidia combine ces GPU dans un système d’IA empilé qui alimentera ses superordinateurs dans les centres de données du monde entier. Tout comme la façon dont Nvidia a utilisé sa précédente architecture Volta pour créer les systèmes Tesla V100 et DGX, un nouveau système DGX A100 AI combine huit de ces GPU A100 en un seul GPU géant.

Le système DGX A100 promet 5 pétaflops de performances, grâce à ces huit A100, et ils sont combinés en utilisant la version de troisième génération de NVLink de Nvidia. La combinaison de ces huit GPU signifie qu’il y a 320 Go de mémoire GPU avec 12,4 To/s de bande passante mémoire. Nvidia inclut également 15 To de stockage interne NVMe Gen4 pour alimenter les tâches de l’IA. Les chercheurs et scientifiques utilisant les systèmes DGX A100 seront même en mesure de diviser les charges de travail  jusqu’à 56 instances, répartissant les tâches plus petites sur les puissants GPU.

L’acquisition récente de 6,9 ​​milliards de dollars par Nvidia de Mellanox, un fournisseur de réseaux de serveurs, entre également en jeu, car le DGX A100 comprend neuf interfaces réseau 200 Gb/s pour un total de 3,6 To/s par seconde de bande passante bidirectionnelle. Alors que les centres de données modernes s’adaptent à des charges de travail de plus en plus diverses, la technologie de Mellanox deviendra de plus en plus importante pour Nvidia. Huang décrit Mellanox comme le tissu de connexion primordial dans la prochaine génération de centres de données.

Nvidia affirme que Microsoft, Amazon, Google, Dell, Alibaba et de nombreux autres grands fournisseurs de services cloud prévoient également d’intégrer les GPU uniques A100 dans leurs propres offres.

Tout comme le plus grand système de cluster DGX A100, Nvidia permet également à chaque GPU A100 individuel d’être partitionné en jusqu’à sept instances indépendantes pour des tâches de calcul plus petites. Mais ces systèmes ne seront pas bon marché. Le DGX A100 de Nvidia offre de grandes promesses de performances, mais les systèmes commencent à 199 000 $ pour une combinaison de huit de ces puces A100.