Site icon Intelligence Artifcielle, Robotique et Big Data

Le Nvidia GPU Ampere A100 remplace le V100

Le GPU Nvidia GA100 (Ampère), est une puce d’in­tel­li­gence arti­fi­cielle, la + grande et la + puis­sante jamais conçue par Nvidia.

Ses caractéristiques

Le DGX A100

Avec cette sor­tie est pro­posée des serveurs Nvidia DGX A100 de 5 petaflops (éval­ués en FP16) inté­grant 8 GPU A100 com­plétés de 15 To de SSD, de neuf cartes réseaux Mel­lanox ConnectX‑6 VPI de 200 GBits/s et de deux CPU AMD EPYC 7742 Rome. Ils sont les pre­miers à sup­port­er le bus PCI 4.0 qui est plus rapi­de que le 3.0 (qui dou­ble la bande pas­sante à 31,5 Go/s), en par­ti­c­uli­er pour les accès SSD. Le DGX A100 est lancé à $200K !

Le super­cal­cu­la­teur DGX A100 Super­POD, com­prenant jusqu’à 140 serveurs DGX A100 avec 1120 GPU A100 et 4 Po de stock­age. Il faut la salle blanche dédiée qui va avec ! A rai­son de 4 DGX par rack, cela néces­site donc au min­i­mum 35 racks.

Conclusion

Le Nvidia GA100 n’est pas le plus grand processeur dédié à l’IA puisque nous avons le mon­stre de Cere­bras de 1,2 tril­lions de tran­sis­tors, 400 000 unités de traite­ment et 18 Go de mémoire cache. Il con­somme 15 kW et sa puce fait 21.5x21.5 cm² (56x fois plus gros que le plus gros GPU jamais conçu, au moment de sa sortie).

Sources:

  1. Arti­cle “Nvidia dévoile GPU Ampere A100, une puce d’in­tel­li­gence arti­fi­cielle, avec 54 mil­liards de tran­sis­tors” sur developpez,
  2. Vidéo “NVIDIA GTC 2020 Keynote Part 6: NVIDIA A100 Data Cen­ter GPU Based on NVIDIA Ampere Architecture”
  3. Arti­cle ”Le nou­veau GPU A100 de Nvidia” sur le blog d’Olivier Ezratty
Quitter la version mobile