NVIDIA lance deux nouvelles cartes accélératrices pour l’intelligence artificielle: les Tesla P4 et P40

Début avril, NVIDIA annonçait une nouvelle génération de cartes accélératrices, avec la Tesla P100, ainsi qu’un superordinateur, le DGX-1, optimisés pour l’apprentissage profond. Les deux furent disponibles en juin.

À l’occasion de la GPU Technology Conference China, qui se tient aujourd’hui à Pékin, NVIDIA a annoncé deux nouvelles cartes complémentaires : les Tesla P4 et P40.

Moins puissantes que la P100, elles sont aussi basées sur l’architecture Pascal, et utilisent le même process de fabrication 16 nm FinFET.

Elles sont spécialisées pour l’inférence, par opposition à l’apprentissage, qui reste la chasse gardée de la P100.

Elles remplacent les cartes accélératrices de la génération précédente, Tesla M4 et Tesla M40, d’architecture Maxwell et gravées en 28 nm.

À l’aide d’un modèle d’intelligence artificiel entraîné, et d’un logiciel adéquat, ces cartes infèrent à grande vitesse le résultat d’un flux de données : une classification, une reconnaissance d’image, une conversion d’un signal audio en mots et phrases, une recommandation de produit, un filtrage de spam, et ainsi de suite.

D’après Ian Buck, en charge de l’informatique haute performance, NVIDIA est le seul fabricant à offrir une solution de bout en bout pour les plateformes d’apprentissage profond.

Pour être suffisamment rapides, les inférences sont effectuées en moindre précision. D’après les experts, une précision de 8 bits serait suffisante pour les réseaux neuronaux.

NVIDIA a donc optimisé les P4 et P40 pour les instructions sur des nombres entiers de 8 bits (et donc 256 possibilités), par opposition à des nombres entiers de plus grande taille, ou à des nombres en virgule flottante.

Avec ce choix, non seulement les traitements sont plus rapides, mais il est possible de transmettre beaucoup plus de données individuelles avec la même bande passante.

Comme le produit scalaire sur deux vecteurs est à la base des réseaux neuronaux en intelligence artificielle, NVIDIA a ajouté deux micro-instructions à son architecture : IDP2A et IDP4A, qui calculent le produit scalaire de vecteurs d’une taille respective de 2 et 4 éléments, avec accumulateur sur 32 bits.

NVIDIA fournit également deux outils logiciels pour optimiser l’inférence en IA : TensorRT, une librairie optimisée, et NVIDIA Deepstream SDK, un kit de développement logiciel pour le traitement des flux vidéos en temps réel.

 

Caractéristiques techniques
Caractéristique Tesla P4 Tesla P40
* Avec mode Boost clock
Source : NVIDIA
Téraopérations en virgule flottante simple précision par seconde TFLOPS* 5,5 12
Téraopérations en entiers 8 bits par seconde INT8 TOPS* 22 47
Nombre de cœurs CUDA 2 560 3 840
Mémoire GDDR5 8 Go 24 Go
Bande passante 192 Go/s 346 Go/s
Consommation 50 Watts ou plus 250 Watts

 

Si l’on en croit NVIDIA, un serveur équipé de 8 cartes Tesla P40 peut remplacer un ensemble de serveurs avec 140 processeurs pour les tâches d’inférence. Ce qui représenterait une économie sur l’investissement initial de 580 000 euros.

Sans compter les économies en énergie, puisque les cartes accélératrices consommeraient 60 fois moins d’énergie que les processeurs à capacité égale.

La Tesla P40 sera disponible en octobre, et la Tesla P4 sera disponible en novembre. NVIDIA n’a pas mentionné leur prix conseillé.