IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Microsoft met fin à l'expérience de centre de données sous-marin dénommée Project Natick, malgré son succès,
Des rapports suggèrent que l'approche de datacenter sous la mer est coûteuse

Le , par Patrick Ruiz

7PARTAGES

12  0 
Lancé en 2016, le projet Natick visait à déterminer si les centres de données pouvaient être installés et exploités sous l'eau. Microsoft vient d’y mettre fin, d’après des rapports qui suggèrent que l’approche de datacenter sous la mer s’avère plus coûteuse.


Pourquoi le projet Natick ? Le projet s’appuyait sur une remarque de Microsoft que le cloud computing continue de gagner en importance, représentant à la fois un catalyseur de croissance économique, mais aussi comme consommateur de ressources mondiales. Ainsi, le projet était destiné à aider à façonner une autre perspective dans la gestion du cloud pour mieux servir les utilisateurs dans les zones proches de cours d'eau. Microsoft voyait dans le déploiement en eaux profondes une solution au refroidissement, aux énergies renouvelables, mais aussi à une empreinte environnementale moindre.

Microsoft réfléchissait en sus à la possibilité de l'associer à un autre système pour pouvoir l'alimenter en électricité, par exemple une turbine ou un système générant de l'énergie marémotrice.

Il faut rappeler que les centres de données contiennent de nombreux serveurs qui génèrent beaucoup de chaleur. Lorsque la chaleur est trop forte, les serveurs plantent. Raison pour laquelle ils sont placés dans des zones où l'air conditionné fonctionne en permanence. C’est en cela que le projet Natick apparaissait comme une solution à la fois être écologique et économique dans la mesure où il n'y aurait plus à payer cette lourde facture.

Quels en sont les avantages ? Microsoft parlait d'une rapidité de mise en service (la capacité de déployer un centre de données du début à la fin en 90 jours) qui devait permettre une réponse rapide à la demande du marché, un déploiement rapide en cas de catastrophe naturelle ou d'évènements de grande envergure comme les compétitions internationales. Il faut en sus compter sur la latence (le temps mis par une donnée pour aller de la source à sa destination) : « la moitié de la population vit à moins de 200 km de l'océan. Alors, déployer des centres de données en mer accroît la proximité entre le centre de données et la population, réduisant ainsi la latence de façon considérable et fournissant une meilleure réponse ».


Phases du projet, avantages, inconvénients et raisons de l’arrêt de l’expérience

  • En 2015, Microsoft a déployé un prototype de centre de données, de la taille d'un conteneur d'expédition, au fond de l'océan au large de la côte californienne (phase 1).
  • Cette phase initiale a prouvé que le concept pouvait fonctionner. Les températures constamment fraîches de l'océan ont permis un refroidissement naturel et efficace des serveurs, réduisant potentiellement la consommation d'énergie.
  • Encouragée par les résultats, Microsoft a lancé la phase 2 en 2018. Il s'agissait d'une unité de centre de données préfabriquée plus grande, déployée près des îles Orcades en Écosse.
  • La phase 2 visait à démontrer l'aspect pratique de la construction et du déploiement de ces centres de données sous-marins à plus grande échelle et dans un délai plus court (moins de 90 jours).
  • Le projet a également mis en évidence les avantages environnementaux potentiels. L'emplacement immergé pourrait être alimenté par des sources renouvelables telles que l'énergie éolienne offshore ou l'énergie des vagues.
  • Bien que le projet Natick ait démontré avec succès la faisabilité technique des centres de données sous-marins, Microsoft a finalement décidé de ne pas poursuivre le déploiement à grande échelle.
  • Le projet s'est achevé en 2020. Bien que la technologie se soit avérée fiable, il restait des défis économiques et logistiques à relever.
  • Microsoft a décidé qu'il serait plus rentable à court terme de se concentrer sur l'optimisation de la conception des centres de données traditionnels et d'explorer les sources d'énergie renouvelables sur terre.
  • Bien qu'ils ne soient pas devenus des centres de données opérationnels, les résultats du projet Natick ont été précieux.
  • Elles ont montré que les centres de données sous-marins sont une option viable qui présente des avantages potentiels en termes d'efficacité, de fiabilité et de durabilité.
  • Les recherches et les données du projet sont utilisées pour éclairer la conception des futurs centres de données et explorer d'autres applications des technologies sous-marines.

Et vous ?

Déployer des datacenters sous la mer est-il une bonne idée ?
Quelles sont les raisons de l’arrêt de cette expérience selon vous ?

Voir aussi :

Tous les datacenters et bureaux d'Apple dans le monde sont alimentés à 100 % en énergies renouvelables, pour lutter contre le changement climatique
Google aurait utilisé 100 % d'énergies renouvelables pour alimenter tous ses bureaux et Datacenter en 2017, d'après son premier vice-président
Les infrastructures IT pourraient être alimentées en énergie électrique issue de réacteurs de fusion nucléaire d'ici à 2033

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de Fleur en plastique
Membre extrêmement actif https://www.developpez.com
Le 25/06/2024 à 17:53
Donc en gros, le projet il est tombé à l'eau, et ils cherchent à noyer le poisson en disant avoir arrêté mais sans énumérer le moindre inconvénient de leur solution. Pourquoi donc ? Probablement parce qu'ils ne veulent pas se mouiller en avouant leur propre faiblesses. Peut-être que Windows n'est pas aussi imperméable qu'il le souhaitaient, ou qu'ils se sont dit que les techniciens réseau en scaphandre c'était pas des masses pratique. Un coup d'épée dans l'eau.
6  0 
Avatar de Anselme45
Membre extrêmement actif https://www.developpez.com
Le 25/06/2024 à 16:31
Si cette "brillante" expérience avait vraiment été un succès, elle n'aurait pas été arrêtée CQFD
6  1 
Avatar de Uther
Expert éminent sénior https://www.developpez.com
Le 26/06/2024 à 8:37
Citation Envoyé par Anselme45 Voir le message
Si cette "brillante" expérience avait vraiment été un succès, elle n'aurait pas été arrêtée CQFD
Il faut quand même reconnaitre que même si ça n'est pas viable commercialement, c'est quand même une réussite technique si le système a pu fonctionner efficacement des années sans intervention humaine dans un environnement particulier avec un système de refroidissement d'un nouveau genre.

Citation Envoyé par Pierre Louis Chevalier Voir le message
C'est évident que c'était une mauvaise idée, bon maintenant pour rembourser le cout de ce projet à la noix il ne reste plus qu'à mettre des pubs sur le menu de démarrage de Windows 11
C'est le principe de la R&D, on essaie des truc, on sait bien qu'une bonne partie ne donnera pas de suite mais c'est un risque que l'on prend pour ne pas stagner, et il y a souvent des leçons a retenir, même des échecs.
4  0 
Avatar de Pierre Louis Chevalier
Expert éminent sénior https://www.developpez.com
Le 25/06/2024 à 16:41
C'est évident que c'était une mauvaise idée, bon maintenant pour rembourser le cout de ce projet à la noix il ne reste plus qu'à mettre des pubs sur le menu de démarrage de Windows 11
4  1 
Avatar de petitours
Membre chevronné https://www.developpez.com
Le 26/06/2024 à 8:59
Oui mais quand on teste une techno qui ne fonctionne pas, ça ne fonctionne pas et puis tant pis.
Là on a pas besoin d'avoir fait Saint-Cyr pour savoir que le problème d'un truc comme ça c'est l'étanchéité et la capacité d'intervention avec donc double enjeux de la destruction du matériel et des données et de la capacité à maintenir le service.

A cela s'ajoute le pourquoi : moins consommer d'énergie pour le refroidissement ? Bof, on est loin des leviers d'optimisation énergétique a savoir en 1) mieux(moins) utiliser les machines, 2) avoir des machines plus efficaces (moins consommer pour le même boulot) et 3) valoriser l’énergie qui est consommée (la fameuse énergie fatale)

Dans l'objectif comme dans la sûreté de fonctionnement ce truc a aucun sens. greenwashing pur.
3  0 
Avatar de smarties
Expert confirmé https://www.developpez.com
Le 25/06/2024 à 17:04
L'idée de s'appuyer sur un environnement suffisamment froid est une bonne idée mais au niveau logistique c'est pas terrible.

Utiliser des puits canadiens et des PAC pourrait être un bon compromis mais il ne faudrait probablement pas entasser trop de serveurs pour garder une dissipation efficace.
1  0 
Avatar de petitours
Membre chevronné https://www.developpez.com
Le 03/07/2024 à 8:29
Citation Envoyé par vipers61 Voir le message
Qui dit Data Centers sous la mer, dit augmentation de la température de celle-ci... et hop, on en ajoute une couche!
Qu'ils soient sous la mer ou au dessus ça ne change rien, l'entropie sera la même, c'est même effectivement un poil moins pire (hors, bateaux, matos spécifiques, câbles longs etc...) si on n'a pas à mobiliser des groupes froid pour évacuer les calories.
1  0 
Avatar de vipers61
Membre à l'essai https://www.developpez.com
Le 02/07/2024 à 10:58
Qui dit Data Centers sous la mer, dit augmentation de la température de celle-ci... et hop, on en ajoute une couche!
0  1