Aujourd’hui, NVIDIA lance une plateforme d’intelligence artificielle pour les centres de traitement de données, qui offrirait les accélérations d’inférences les plus avancées pour la voix, la vidéo, les images et les services de recommandation.

Nommée NVIDIA TensorRT Hyperscale Inference Platform, cette dernière est composée d’un ensemble exhaustif de logiciels d’inférence, ainsi que des nouveaux accélérateurs matériels Tesla T4.

NVIDIA Tesla T4

Ce processeur graphique accélérateur exploite la nouvelle architecture de NVIDIA, Turing, est composé de 2 560 cœurs CUDA ainsi que 320 cœurs Turing Tensor.

Il est proposé sur un facteur de forme PCIe (x16 Gen 3) qui rentre dans la plupart des serveurs, ne consomme que 75 watts, et offre des performances maximales de 8,1 téraflops en FP32 (nombres à virgule flottante sur 32 bits), 65 teraflops en FP16 (nombres à virgule flottante sur 16 bits), 130 téraflops en INT8 (nombres entiers sur 8 bits) et 260 téraflops en INT4 (nombres entiers sur 4 bits).

Au total, les performances peuvent être jusqu’à 40 fois supérieures à celle d’un microprocesseur.

L’accélérateur est équipé de 16 gigaoctets de mémoire vive GDDR6 et dispose d’une bande passante supérieure à 320 GB/s. Il semblerait donc que NVIDIA abandonne la mémoire haute performance HBM2, sans doute à cause de son coût.

Ce nouveau modèle offrirait jusq’à 12 fois les performances de son prédécesseur tout en conservant la même enveloppe énergétique.

D’après NVIDIA, le marché de l’interférence en intelligence artificielle devrait représenter 20 milliards de chiffre d’affaires d’ici cinq ans.