AWS lance les instances P2 pour le calcul intensif

Amazon Web Service, le leader des services d’informatique en nuage, lance une nouvelle catégorie d’instances, P2, accélérées par coprocesseurs graphiques.

L’instance P2 est idéale pour les tâches nécessitant des calculs intensifs en virgule flottante: intelligence artificielle, dynamique des fluides, finance, analyse séismique, modélisation de molécules, génomique, ou rendu.

Chaque instance peut inclure jusqu’à 16 cartes accélératrices NVIDIA Tesla K80, ce qui en ferait, d’après Amazon, l’instance GPU la plus rapide du nuage.

L’instance peut accueillir jusqu’à 732 gigaoctets de mémoire vive hôte (plus jusqu’à 192 gigaoctets de mémoire vive sur les GPU), et jusqu’à 64 processeurs virtuels basés sur l’Intel Xeon E5-2686 v4.

La capacité serait de 70 téraflops en nombres à virgule flottante simple précision, et 23 téraflops en double précision.

L’instance P2 complète l’instance GPU G2 lancée il y a deux ans. L’instance P2 est sept fois plus rapide en simple précision, et 60 fois plus rapide en double précision, que l’instance G2.

Trois tailles d’instances sont proposées: p2.16xlarge avec 16 GPUs, p2.8xlarge avec 8 GPUs, et p2.xlarge avec 1 GPU.

Nom GPUs vCPUs RAM (Go)      Bande passante
Réseau
Prix par heure UE(Irlande)
p2.xlarge 1 4 61 High $0.972
p2.8xlarge 8 32 488 10 Gbps $7.776
p2.16xlarge 16 64 732 20 Gbps $15,552

Pour l’instant, les instances P2 sont disponibles dans les régions Europe (Irlande), US East (N. Virginia) et US West (Oregon).

Amazon et ses partenaires offrent plusieurs images, dont Amazon Linux AMI et  NVIDIA AMI avec des solutions préinstallées d’apprentissage profond comme Caffe et Mxnet.

Notons que les Telsa K80 sont des cartes accélératrices d’avant-dernière génération. La dernière génération est la NVIDIA Tesla P100.