Vers 5 heures, par un matin brumeux de début juin, un groupe d’ingénieurs, d’informaticiens et de chercheurs est monté à bord d’un bateau sur les îles écossaises éloignées des Orcades. Vers minuit le même jour, ils ont accosté au même port qu’ils avaient quitté ce matin-là. En 19 heures, un vaste projet d’infrastructure a été réalisé : un centre de données étanche, composé de 864 serveurs répartis sur 12 supports, a été immergé au fond de l’océan.

Une barge géante, équipée de grues, a traîné le centre de données jusqu’à son lieu de repos. Une fois fixé sur une dalle rocheuse à 35m sous la surface, les ingénieurs ont utilisé un drone sous-marin pour le relier à un câble précédemment posé. « Il y a toujours un risque que quelque chose ne fonctionne pas parce que nous ne voyons pas le câble » dit Ben Cutler, chef du centre de données sous-marines de Microsoft, qui a été baptisé Project Natick.

Pourquoi immerger les centres de données ?

Le but de ce projet ambitieux ? Réduire potentiellement les quantités colossales d’énergie nécessaires en vue de la consommation de plus en plus gourmande de données. Microsoft travaille sur le projet Natick depuis 2014 et a déjà testé un centre de données submergé à petite échelle dans l’océan Pacifique pendant 105 jours.

La nouvelle structure de 12m de long utilise la technologie de compression des sous-marins et a été conçue pour rester au fond de la mer pendant cinq ans. Elle sera opérationnelle pendant au moins un an pour que Microsoft puisse voir comment elle fonctionne et, pendant ce temps, les ingénieurs ne peuvent pas accéder physiquement à la capsule. Si les composants technologiques à l’intérieur se cassent, il n’y aura aucun espoir de réparation.

Le principe de l’immersion du centre de données est simple : l’eau de mer froide pourrait aider à réduire le coût de refroidissement des serveurs à l’intérieur du tube métallique. Le câble relié au centre de données fournit de l’électricité produite à partir de sources renouvelables sur terre et contient également les câbles Internet, qui seront acheminés vers la terre. Selon Microsoft, le centre de données est aussi puissant que « plusieurs milliers de PC haut de gamme ».

Un impact sur l’environnement

Et comme le monde est de plus en plus demandeur de données, les entreprises ont du mal à maîtriser son impact sur l’environnement. « Il ne s’en va pas, il s’agrandit  » dit Colin Pattinson, doyen de l’école d’informatique, de technologies créatives et d’ingénierie de l’Université Leeds Beckett. « Tout ce que nous produisons, tout ce que nous créons, devient de plus en plus gourmand en données » ajoute-t-il.

Selon une étude de la Commission européenne, l’industrie des TIC, qui comprend les centres de données, produit jusqu’à deux pour cent des émissions mondiales de CO2. Les centres de données ont également l’empreinte carbone qui croît le plus rapidement de tous les secteurs du secteur des TIC, principalement en raison de la croissance de l’informatique dans le Cloud et de l’utilisation générale d’Internet. Le Royaume-Uni, l’Allemagne, la France et les Pays-Bas abritent les plus grands centres de données d’Europe et l’on estime que d’ici 2020, les centres de données de l’UE consommeront 104 térawattheures d’énergie par an. Cela devrait représenter environ quatre pour cent de la consommation totale d’énergie.

Donc, si les centres de données peuvent être immergés au fond de l’océan pour réduire la quantité d’électricité dont ils ont besoin, ne peut-on pas tout simplement tous les y déposer ? La réponse courte : non. Il y a des facteurs plus complexes en jeu. Actuellement, Microsoft n’est pas certain que la dernière phase de son expérience sera couronnée de succès. Les choses pourraient mal tourner, les serveurs pourraient tomber en panne et l’ensemble du projet pourrait couler sans laisser de trace.

Il y a aussi des considérations concernant l’impact sur l’environnement. Cutler indique que la première phase d’essai de 105 jours a émis une petite quantité de chaleur dans l’océan et il s’attend à ce que la même chose se produise cette fois-ci. La quantité de chaleur dégagée est surveillée à l’aide de capteurs, tout comme la quantité de bruit créée par le centre de données.  » En examinant le centre de données de la phase un, nous avons constaté qu’en quelques jours, il était envahi par les phoques » dit-il. « Nous avions du poisson autour de nous, des crabes rampant partout. » D’après les caméras placées autour du centre de données des Orcades, il y a déjà « des créatures très exotiques qui se baladent ».

« Dans un sens, cela vaut la peine d’essayer » Pattinson, qui a étudié l’impact environnemental des centres de données. « Les plus récents efforts pour réduire la consommation d’énergie ont été de profiter des conditions climatiques. » Au cours de la dernière décennie, des centres de données ont été créés dans des pays aux climats plus froids, comme l’Islande. « Les centres de données situés en Scandinavie et en Europe du Nord sont plus performants sur le plan énergétique, principalement en raison des conditions ambiantes plus fraîches qui facilitent une utilisation plus économique » indique la recherche de la Commission européenne.

Une initiative efficace ?

Pattinson affirme que tout ce qui contribue à réduire la consommation d’énergie des centres de données est positif, mais que les gains d’efficacité sont de plus en plus faibles. Il y a quelques années, des techniques telles que la virtualisation des serveurs, les techniques de refroidissement à l’air libre et l’exploitation des climats plus froids ont fait une grande différence, mais ces gains diminuent de jour en jour.

Ainsi, bien qu’il n’existe peut-être pas de solution radicale pour réduire la consommation d’énergie des centres de données, nous pourrons peut-être utiliser les technologies émergentes pour améliorer encore davantage l’efficacité énergétique. L’utilisation de l’intelligence artificielle et de l’apprentissage automatique pour mieux comprendre les données est l’un des domaines où les gains d’efficacité potentiels sont les plus importants. Les algorithmes développés par DeepMind de Google ont montré qu’il est possible de réduire jusqu’à 40 % l’énergie utilisée pour refroidir ses centres de données.

« En fait, ce que nous essayons de faire maintenant, c’est de réaliser encore plus d’économies à partir de la même technologie de base », ajoute Pattinson. « Nous pouvons réduire le taux d’augmentation, mais il y aura toujours une augmentation de la demande d’énergie que les centres de données créent en raison des volumes de données que nous produisons. »

Cutler de Microsoft ajoute que l’entreprise explore également l’utilisation de centres de données sous-marins comme récifs artificiels, des structures artificielles fabriquées par l’homme qui peuvent être utilisées pour promouvoir la faune sauvage. Dans le monde entier, d’anciens trains, citernes et navires ont été transformés en récifs artificiels pour améliorer l’environnement marin.

Mais les centres de données sont de grosses entreprises, d’autant plus que le cloud et l’intelligence artificielle des plus grandes entreprises de technologie prennent de l’expansion. (Apple dit que tous ses centres de données sont entièrement alimentés par des énergies renouvelables, Facebook s’efforce d’atteindre 100 % d’énergie renouvelable, Google achètera 100 % d’énergie renouvelable pour égaler son utilisation de données en 2018 et Microsoft dit que tous ses centres de données sont neutres en carbone). Plus de 20 milliards de dollars ont été dépensés pour les bâtiments des centres de données en 2017, selon une étude de la société immobilière CBRE. Et Microsoft a un argument économique pour tenter le projet Natick.

« On pourrait imaginer un centre de données dans l’océan qui pourrait en avoir plus d’un », dit Cutler. « Il pourrait y en avoir beaucoup et ils pourraient être reliés. » Il prévoit qu’il sera possible pour Microsoft de fabriquer et de créer les centres de données sous-marins dans un délai de 90 jours et de les installer près des villes. « Imaginez une usine où l’on construit ces centres de données et c’est là que les serveurs apparaissent. Ils sont équipés, scellés dans ces conteneurs et quelqu’un appelle pour dire qu’ils ont besoin de deux mégawatts de capacité au large des côtes d’un pays. »

Beatrice Nicolas-Meunier, chef de projet à la firme d’ingénierie Naval Group qui a construit le centre de données Natick en utilisant la technologie sous-marine, dit que l’échelle n’est pas un problème. « En ce qui concerne la technologie, on peut aller de plus en plus loin » explique-t-elle. Tout problème potentiel provient du transport d’objets plus gros. Elle dit que l’entreprise devrait adopter une technologie marine spécialisée pour déplacer de tels centres de données géants. « Si Microsoft demain voulait en développer un très grand, il faudrait utiliser les mêmes outils » explique Nicolas-Meunier. « Les limites sont les outils autour du déploiement d’un tel vaisseau. »

Si tout se déroule comme prévu pour Microsoft, Cutler imagine la création de centres de données sous-marins au large des côtes des pays du monde entier, ajoutant que, dans la plupart des cas, les villes à forte population ne sont qu’à 200 kilomètres de la côte. Et rapprocher les centres de données des villes pourrait avoir un autre avantage : si les données n’ont pas à se déplacer si loin, les connexions sont plus rapides. Mais ne vous attendez pas à ce qu’ils soient ajoutés à des lacs ou à d’autres plans d’eau. « Ce qu’il y a de bien avec l’océan, c’est qu’il y a toujours un courant » dit-il. « Avec un plan d’eau stagnante, où va la chaleur ? »