Nvidia annonce le superordinateur DGX-1 pour l’apprentissage profond, équipé d’accélérateurs Tesla P100

Lors du discours inaugural de la GPU Tech Conference qui se tient à San Jose du 4 au 7 avril 2016, Jen-Hsun Huang, le PDG de NVIDIA, a présenté le superordinateur DGX-1, un serveur prêt à l’emploi, conçu pour accélérer les solutions d’intelligence artificielle, et notamment l’apprentissage profond.

Le DGX-1 se compose de deux processeurs Intel Xeon E5-2698 v3 et de huit accélérateurs Tesla P100, interconnectés par NVLINK dans un châssis 3U, de 512 Go de mémoire vive DDR4, de quatre SSD 1,92 To en RAID-0, et de deux ports Ethernet 10 Gb. Il est préconfiguré avec l’environnement logiciel NVIDIA DIGITS.

Il possède une puissance phénoménale de 170 téraflops (170 mille milliards d’opérations en virgule flottante par seconde) pour une consommation électrique de 3 200 W, et coûte 129 000 dollars HT (environ 114 000 euros, mais le prix sera probablement différent en Europe). D’après NVIDIA, le DGX-1 pourrait être jusqu’à douze fois plus rapide que les serveurs à quatre processeurs graphiques (GPU) Maxwell, la génération précédente.

Le DGX-1 sera vendu directement par NVIDIA à partir de mai 2016.

Il permet d’envisager des centres de traitement de données simplifiés, où des milliers de serveurs classiques sont remplacés par quelques serveurs DGX-1.

Le Tesla P100 est le premier accélérateur basé sur l’architecture de processeur graphique (GPU) NVIDIA Pascal. Il est composé de 18 milliards de transistors gravés avec le processus de fabrication FinFET 16 nanomètres, voire 150 milliards de transistors si l’on inclut les 16 gigaoctets de mémoire intégrée à large bande passante. C’est la puce FinFET la plus grande jamais produite.

Sa puissance de calcul s’élève à 5,3 téraflops en double précision, sa bande passante avec la mémoire intégrée s’élève à de 720 Go/s, soit trois fois mieux que celle de l’architecture précédente Maxwell, et 160 Go/s en interconnexion NVLink.

L’une des principales innovations de l’architecture logicielle est la programmation simplifiée avec le moteur de migration de page. Depuis CUDA 6, les programmeurs pouvaient utiliser la mémoire unifiée, un espace virtuel d’adresses partagé par les processeurs et les processeurs graphiques.

Avec le P100, les programmeurs n’ont plus à s’inquiéter de gérer les transferts de mémoire, et peuvent raisonner comme si les données étaient là où ils le souhaitent : si une donnée n’est pas trouvée dans la mémoire unifiée, le système importe de façon transparente les pages de la mémoire virtuelle paginée contenant les données, de ou vers les CPU ou les GPU selon les cas. De plus, la taille maximale de la mémoire unifiée augmente considérablement : jusqu’à 170 fois la mémoire physique du GPU.

NVLINK est l’interconnecteur à haute vitesse de NVIDIA, conçu pour remplacer l’interconnexion PCIe, afin d’accélérer les communications de GPU à GPU, et de GPU à CPU.

Les Telsa P100 seraient en pleine production, et seraient bientôt envoyés aux clients : dans un premier temps les fournisseurs de service cloud comme AWS, Azure ou GCP, et à partir de l’année prochaine dans des serveurs de Cray, Dell, HPE et IBM.