Deprecated: Function get_magic_quotes_gpc() is deprecated in /home/customer/www/greenvision.fr/public_html/libraries/fof30/Input/Input.php on line 99
Quelques idées reçues...

1. La virtualisation réduit la consommation électrique des serveurs de 80%

Oui. Mais à deux conditions : dé-provisionner les machines qui n’ont plus d’utilité et optimiser la charge des serveurs physiques. Dans le cas contraire, ce sont surtout les évolutions du matériel (performance par watt des processeurs, efficacité de l’alimentation électrique, etc…) qui feront la différence. La réalité des infrastructures de virtualisation montre que le gain énergétique, bien que réel, est loin du discours des éditeurs. On constate ainsi plus souvent un gain de 20% que le gain tout à fait idéal de 80% annoncé par certains éditeurs. De plus la haute densité électrique des équipements destinés à héberger les serveurs virtuels pose de réels problèmes d’urbanisation aux exploitants de datacenter si ces derniers ne sont pas en mesure de fournir le haut niveau de puissance nécessaire.

 

2.  50 serveurs physiques virtualisables = 50 serveurs virtualisés

Forte de son succès, la virtualisation de serveurs se développe dans toutes les entreprises notamment du fait de l’extrême facilité d’exploitation et de déploiement. En réalité on constate très souvent que le nombre de serveurs après virtualisation est très nettement supérieur (de 20 à 100%) au nombre initial. C’est ce que nous appelons la démultiplication spontanée des serveurs virtuels. De fait, les administrateurs ont souvent tendance à créer un serveur dès que le besoin s’en fait sentir au détriment des coûts d’exploitation et de licences. De notre point de vue la solution pour éviter cette dérive consiste à valider la mise en production d’un serveur virtuel par un process d’achat.

 

3.  Le Green Datacenter existe !

Les arguments des datacenter soit disant vert mettent en général en avant les 2 critères que sont le PUE ou l’utilisation d’énergie renouvelable.

Concernant ce dernier, il est assez simple de constater que les besoins énergétiques du datacenter sont tels qu’il est difficile de trouver une source d’énergie compatible avec les conditions d’utilisation du datacenter.
Prenons l’exemple de l’énergie solaire, celle-ci présente à la fois l’inconvénient de n’être disponible qu’en journée, tout en étant dépendante de conditions d’ensoleillement, ce dont les serveurs hébergés n’ont pas réellement lieu de se préoccuper ! Par ailleurs, l’ampleur des besoins énergétiques du datacenter est difficilement compatible avec les capacités locales de production d’énergie renouvelable, telle que le solaire ou l’éolien.

D’autre part, prétendre contribuer au développement durable uniquement par l’achat d’électricité « verte » est discutable, dans la mesure où cette énergie reste consommée. Bien qu’étant une démarche louable, celle-ci ne traduit donc en aucun cas les efforts d’optimisation de la consommation électrique menés au sein du datacenter.

Concernant les PUE et notamment ceux annoncés, il convient de rappeler que la mesure de celui-ci s’effectue sur une base annuelle, de telle sorte qu’elle prenne en compte l’ensemble des caractéristiques climatiques observées durant l’année. De même, le PUE annoncé est souvent un PUE cible, à objectif de capacité atteint. Ainsi, un datacenter qui vient juste d’ouvrir et qui n’est remplit qu’à 5%, ne peut prétendre à un bon PUE puisque ses infrastructures, fussent elles modulaires, ne peuvent être utilisées dans leurs conditions de performance, et donc de rendement, optimum. Le PUE, représentatif du taux de surconsommation induit par les infrastructures techniques, est donc potentiellement d’autant plus mauvais que l’infrastructure est dimensionnée pour un haut niveau de disponibilité. C’est la raison pour laquelle le PUE augmente de manière inversement proportionnelle au niveau de TIER. A l’extrême, l’absence de technologies destinées à améliorer la disponibilité, tout en assurant le fonctionnement, conduit à se rapprocher du PUE optimal de 1.

Pour mériter l’appellation de Green Datacenter, il faudrait évidemment considérer l’efficacité énergétique du datacenter, mais aussi l’ensemble des composants susceptibles de générer des émissions de Gaz à Effet de Serre. A ce jour, il n’existe pas d’indicateur global permettant une vision exhaustive des paramètres à considérer. Celui-ci serait d’autant plus complexe à réaliser qu’il faudrait englober des paramètres aussi divers que la gestion des DEEE, les conditions d’exploitation du site et la durée de vie des matériels.
Un indicateur global pourrait apparaitre par exemple au travers du bilan carbone, dès lors que ses conditions d’applications au niveau du datacenter seront déterminées de manière précise. Dans cette optique, un datacenter pourrait être considéré comme réellement « Green » dès lors que ses émissions de Gaz à Effet de Serre seraient réduites à zéro.
Nul doute qu’aujourd’hui, à défaut d’être utopique, c’est tout au moins illusoire en l’état des technologies actuelles. Tout au plus, les datacenter qui se prétendent actuellement « Green » sont éventuellement plus efficients que la génération précédente. Dès lors, il convient de se préoccuper principalement de l’efficience de ses centres d’hébergement, puisque le meilleur indicateur de comparaison d’un datacenter reste lui-même… dans un état antérieur.

 

4.  Un serveur consomme toujours autant d’électricité

Un serveur informatique intègre de nombreux composants qui sont sollicités de manière variable en fonction des applications et même du système d’exploitation. Parmi les composants les plus impactant, on trouve le processeur puis le disque et la mémoire. A l’image d’une voiture dont la consommation varie largement selon la conduite et la route empruntée, un serveur va consommer beaucoup s’il est fortement sollicité. Pour certains équipements on peut même constater une augmentation de la consommation électrique d’un facteur 3 en fonction de l’usage. Pour se prémunir de telles variations, qui peuvent aussi se dérouler de manière très progressive, il est indispensable de maitriser le modèle énergétique de consommation des équipements. Ceci peut heureusement être réalisé par le l’intégration de solution de pilotage énergétique ou d’urbanisation de salles informatiques et par l’étude des modèles de consommation.

 

5.  Un serveur double alimentation répartit sa charge à 50% entre les 2 sources

Oui … et non. Cette caractéristique pourtant fondamentale des équipements avec des double alimentation n’est pourtant pas figée. Ainsi un serveur pourra adopter, de manière aléatoire ou plus exactement de manière imprévisible, une répartition de charge de type 50/50 ou 75/25 ou même 100/0. Plus grave encore, cette répartition de charge est susceptible de s’inverser au prochain démarrage du serveur et de se modifier en fonction du profil de consommation. Faute de disposer de cette information, les efforts d’urbanisation des exploitants de salle informatique peuvent être rendus vains avec une répartition non uniforme et non constante de la charge électrique des sources d’alimentation.

 

6.  L’efficacité énergétique d’un serveur n’est pas un critère d’achat

Dès lors que l’on achète un serveur d’une génération récente et disposant de quelques labels (Energy Star par exemple) on pourrait considérer avoir pris en compte le critère énergétique. Dans la pratique cela s’avère nettement insuffisant. En effet, le critère à prendre en compte est plutôt la performance par Watt. Ainsi on ne s’attachera pas simplement à regarder si un serveur est rapide et qu’il consomme peu mais bien le ratio entre ses 2 éléments. Sous cet angle, qui peut aussi bien mettre en avant un serveur extrêmement puissant et très consommateur qu’un serveur consommant très peu et avec une performance relative, Greenvision a constaté dans le cadre de ses études un écart d’un facteur 20 entre différents modèles d’équipements !

 

7.  Le Cloud est Green …

Le Cloud présente de nombreux atouts en terme d’exploitation mais il est loin d’être aussi Green que les fournisseurs de Cloud veulent bien le dire. En effet, au-delà des quelques effets vertueux relatifs au télétravail, à la capacité à la demande il y a nombre d’effets pervers comme la démultiplication des systèmes et datacenters, la non-désinstallation des anciens systèmes, l’illusion d’une capacité infinie, l’augmentation des réseaux etc… Greenvision a contribué au livre blanc sur ce thème et Tristan Labaume a présenté sur BFM Business les conclusions de ce rapport.