Le GPU Nvidia GA100 (Ampère), est une puce d’intelligence artificielle, la + grande et la + puissante jamais conçue par Nvidia.
Ses caractéristiques
- Techno 7 nm (contre 12 pour le V100), 54 milliards de transistors
- 6912 cœurs FP32 CUDA, dans la nomenclature Nvidia, seuls les ALU FP32 sont considérés comme étant des cœurs CUDA. Le calcul FP32 arrive à 19,5 TLFLOP (contre 16,4 TFLP pour le Tesla V100).
- 432 cœurs Tensor (précision FP32, 20x plus puissant que Tesla V100). Le GPU A100 supporte un nouveau type de donnée, le TF32 pour Tensor Float 32.
- 108 SM (Streaming Multiprocessors),
- couplés à 40 Go de mémoire HBM2e avec une bande passante mémoire maximale de 1,6 To/s.
Le DGX A100
Avec cette sortie est proposée des serveurs Nvidia DGX A100 de 5 petaflops (évalués en FP16) intégrant 8 GPU A100 complétés de 15 To de SSD, de neuf cartes réseaux Mellanox ConnectX‑6 VPI de 200 GBits/s et de deux CPU AMD EPYC 7742 Rome. Ils sont les premiers à supporter le bus PCI 4.0 qui est plus rapide que le 3.0 (qui double la bande passante à 31,5 Go/s), en particulier pour les accès SSD. Le DGX A100 est lancé à $200K !
Le supercalculateur DGX A100 SuperPOD, comprenant jusqu’à 140 serveurs DGX A100 avec 1120 GPU A100 et 4 Po de stockage. Il faut la salle blanche dédiée qui va avec ! A raison de 4 DGX par rack, cela nécessite donc au minimum 35 racks.
Conclusion
Le Nvidia GA100 n’est pas le plus grand processeur dédié à l’IA puisque nous avons le monstre de Cerebras de 1,2 trillions de transistors, 400 000 unités de traitement et 18 Go de mémoire cache. Il consomme 15 kW et sa puce fait 21.5x21.5 cm² (56x fois plus gros que le plus gros GPU jamais conçu, au moment de sa sortie).
Sources:
- Article “Nvidia dévoile GPU Ampere A100, une puce d’intelligence artificielle, avec 54 milliards de transistors” sur developpez,
- Vidéo “NVIDIA GTC 2020 Keynote Part 6: NVIDIA A100 Data Center GPU Based on NVIDIA Ampere Architecture”
- Article ”Le nouveau GPU A100 de Nvidia” sur le blog d’Olivier Ezratty
Laisser un commentaire