Microsoft expérimente avec les centres de traitement de données sous-marins

Une équipe de Microsoft Research a pour but d’évaluer la faisabilité de centres de traitements de données sous-marins, et comment fabriquer et opérer ces centres.

Le premier prototype de capsule, nommé Leona Philpot, a été placé au fond de la mer à un kilomètre de la côte du Pacifique des États-Unis, près de San Luis Obispo, puis a fonctionné d’août à novembre 2015.

D’un diamètre de 2,44 mètres, la capsule contenait un rack de serveurs baignant, dans de l’azote, ainsi que des centaines de capteurs de différents types, comme d’humidité, de pression, de bruit, et de mouvement.

Microsoft a pu vérifier que l’environnement s’adaptait bien à la capsule, qu’elle n’émettait pas de chaleur à plus de quelques centimètres, et que le bruit qui émanait des disques durs et des autres parties mobiles était inférieur à celui d’une crevette se déplaçant à côté.

La prochaine étape consiste en la construction d’une capsule trois fois plus grande, qui sera placée peut-être dans les eaux de la Floride, ou de l’Europe du Nord.

 

L’objectif du Project Natick serait un centre de traitement de données d’une durée de vie de 20 ans, avec des cellules contenant des serveurs dont la durée de vie serait de cinq ans, et qui seraient changés tous les cinq ans.

Les avantages d’un data center sous-marins seraient nombreux :

– Alimentés en énergies 100 % renouvelables, en transformant les mouvements de l’eau en électricité ;

– Pas d’énergie utilisée pour le refroidissement des ordinateurs ;

– Plus près des populations. 50 % de la population mondiale vit à moins de 200 km d’une côte. Une telle proximité réduirait de façon significative la latence entre le centre et ses utilisateurs ;

– Très rapide à déployer, ce qui permet d’envisager des mises à disposition à la demande, dans le cas d’un événement majeur comme une coupe du monde de football, ou en réponse à une catastrophe naturelle.

 

De nombreux problèmes sont à résoudre avant de transformer cette vision, imaginée en 2014 dans le cadre du programme NExT (nouvelles expériences et technologies) par une équipe dirigée par un ancien directeur adjoint de la Darpa, l’agence de recherche avancée du département de la Défense, en réalité.

Il faut produire des capsules résistantes et parfaitement étanches pour au moins cinq ans. Il faut repenser les serveurs, le stockage et les équipements de réseau, et les améliorer pour qu’ils puissent opérer pendant 5 ans sans panne, sans intervention humaine et sans échange de pièce défectueuse. Il faut pouvoir générer suffisamment d’électricité pour couvrir les pics de consommation. Enfin, il faut pouvoir assurer la sécurité des données et l’intégrité des infrastructures.

Notons que l’une des raisons qui rendent ce projet potentiellement viable, est la fin probable de la loi de Moore : l’amélioration des performances des processeurs est de plus en plus longue, et si la tendance se confirme il ne sera pas nécessaire de changer les serveurs plus d’une fois tous les cinq à dix ans.

A contrario, si l’industrie des semi-conducteurs découvrait de nouveaux moyens de poursuivre la croissance exponentielle de la complexité des puces, un centre de traitement de données devrait, comme à l’heure actuelle, renouveler ses serveurs et ses équipements de stockage et de réseau plus souvent pour rester compétitif, ce qui réduirait l’attrait d’un déploiement sous-marin.

Dans tous les cas, le projet a le mérite d’inviter les chercheurs à penser différemment les data centers et leurs équipements.

Microsoft est l’un des plus grands propriétaire et opérateur de centres de traitement de données, avec plus de 100 dans le monde, pour un investissement supérieur à 15 milliards de dollars.