| Type |
Équipement (d), structure architecturale (en), data room (en), organisation |
|---|
| Composé de |
Salle de contrôle Server computer (d) Server room (en) |
|---|
| Usage |
|---|

Un centre de données (en anglais data center ou data centre), ou centre informatique est un lieu où sont regroupés les équipements constitutifs d'un système d'information (ordinateurs centraux, serveurs, baies de stockage, équipements réseaux et de télécommunications, etc.). Ce regroupement facilite la sécurisation, la gestion (notamment l'exécution de calculs et le refroidissement) et la maintenance des équipements et des données stockées.
Techniquement, un centre de données fournit des services informatiques en environnement contrôlé (climatisation, poussière, alimentation, etc.) et sécurisé (système anti-incendie, contre le vol et l'intrusion, etc.), munis d'une alimentation d'urgence et redondante.
Opérationnellement, un centre de données peut être exploité par une entreprise de façon interne ou mis à la disposition de plusieurs entreprises en tant que service externe. Lorsqu'un centre de données est utilisé commercialement pour fournir une prestation de service à des particuliers ou des entreprises, on parle de cloud (nuage) ou de dématérialisation[1], une solution interne (rapidité, sécurité des données hébergées notamment) et cloud (robustesse, maintenance, location de services à la demande) pouvant être hybridées.
En 2025, il y a près de 12 000 centres de données dédiés ou mutualisés dans le monde[2]. La France en héberge 322, ce qui la classe « au sixième rang mondial derrière les Etats-Unis (5 427) et la Chine (449)[3] ».
En 2020, leur empreinte carbone augmente de 9 % par an (il pourrait, avant 2030, atteindre jusqu'à deux fois les émissions annuelles de la France). Et leur refroidissement consomme déjà 2 % de l'électricité dans le monde (et pourrait atteindre 4% en France, au détriment de la transition énergétique). Ces taux pourraient encore exponentiellement augmenter avec les nouveaux usages d'Internet (stockage massif de données, blockchains, streaming et intelligence artificielle...)[4].
Terminologie
Le terme « centre de données » est la traduction de l'anglais data center / data centre[5],[6]. Frédéric Bordage, expert en informatique durable et en sobriété numérique, lui préfère le terme « centre informatique »[7]. En effet, un centre informatique comporte non seulement des baies de stockage des données, mais aussi des serveurs, qui effectuent les traitements. D'autre part, sauf dans une logique de cloud computing intégral, les données sont réparties entre les centres informatiques et les terminaux des utilisateurs.
Description


Un centre de données est un bâtiment sécurisé contre l'intrusion et les risques naturels et technologiques, abritant différents équipements électroniques, des ordinateurs, des systèmes de stockage et des équipements de télécommunications. Le centre peut occuper une pièce, un étage ou de grands immeubles.
On y retrouve des serveurs 1U (surnommés « boîtes à pizza ») ou plus, « U » correspondant à une unité de hauteur de 4,445 cm (1,75 pouce), empilés dans des baies, lesquelles sont arrangées pour former des rangées simples, ce qui permet de circuler facilement parmi les serveurs, tant à l'avant qu'à l'arrière. Quelques appareils, ordinateurs centraux par exemple, sont de dimensions semblables à ces baies. Ils sont souvent placés à leurs côtés.
Histoire
Avant la bulle Internet, des millions de mètres carrés destinés à abriter de tels centres furent construits dans l'espoir de les voir occupés par des serveurs. Depuis, la concentration des centres s'est poursuivie, avec le développement de centres spécialisés pour lesquels les défis les plus importants sont la maîtrise de la climatisation et surtout de la consommation électrique. Ce mouvement a été intégré dans l'informatique durable et vise à aboutir à des centres de traitement de données dits écologiques pour lesquels sont apparus des outils spécialisés[8].
Vers 2008, les centres de données Hyperscale (centre de données d'au moins 250 000 serveurs, dont la climatisation est optimisée) ont été créés pour les besoins croissants d'Amazon et Google note Bill Carter du projet Open Compute (créé en 2011 pour permettre à Facebook d'économiser l'énergie consommée par ses serveurs).
L'importance prise par les stockages de données associées à une activité et les mouvements d'acquisitions entre les entreprises peuvent pousser celles-ci à acquérir en interne des technologies ou à rechercher des prestataires spécialisés sur les centres de données, ayant la capacité d'assurer une interopérabilité entre des stockages de données disparates[9].
Le secteur professionnel s'organise. En France, l'association France Datacenter entend fédérer les acteurs professionnels du secteur des centres de données du pays. En 2025, elle représente une centaine de sociétés qui en conçoivent, construisent et exploitent. Elle dit aussi promouvoir la « formalisation des savoirs », la formation et les meilleures pratiques du secteur pour améliorer la compétitivité de la filière française face à ses concurrents européens[10].
Au milieu des années 2020, la demande en hyperscalers (10–30 MW) croît, ce qui devrait continuer à tirer les prix vers le haut ; les pré‑locations se font désormais 3 à 5 ans avant livraison et le projet Stargate (OpenAI, Oracle, SoftBank) prévoit jusqu'à 500 milliards $ pour 20 méga‑datacenters IA aux États‑Unis[11].
Fonctions
Un centre de données informatique (CDI), distinct d'un centre de traitement informatique (CTI), regroupe des serveurs qui stockent des données au moyen de baies de stockage. La plupart des centres de données effectuent également des opérations sur ces données, de sorte qu'ils jouent également le rôle de CTI.
Les données et bases de données sont souvent devenues cruciales pour le fonctionnement des entreprises et de la société en général. Un nombre croissant de données sont dites personnelles ou sensibles, raison pour laquelle de hauts niveaux de sécurité et de service sont demandés aux centres de données, pour assurer l'intégrité et le fonctionnement de leurs appareils et éviter les attaques par déni de service.
Composantes
Elles doivent pour chaque centre assurer la bonne connexion réseau (internet, intranet, etc.) et une haute disponibilité du système d'information. Pour cela, des applications logicielles gèrent les tâches essentielles de l'« activité métier » des clients. Parmi ces applications, on retrouve des gestionnaires de bases de données, des serveurs de fichiers et des serveurs d'applications.
Composantes physiques

- Climatisation (précise et stable)
- Contrôle de la poussière (filtration de l'air)
- Unité de distribution de l'énergie
- Bloc d'alimentation d'urgence, et une unité de secours (Générateur, UPS)
- Système perfectionné d'alerte d'incendie
- Extinction automatique des incendies (par micro-gouttelettes ou gaz inerte)
- Plancher surélevé
- Conduites pour câbles au-dessus et au-dessous du plancher
- Surveillance par caméras en circuit fermé
- Contrôle des accès, ainsi que sécurité physique
- Surveillance 24/7 des serveurs dédiés (ordinateurs)
- Service de sécurité continuellement présent
- Câbles de paires torsadées de cuivre en Ethernet (Fast ou Gigabit) pour liaisons inter-[jarretières/switches/routeurs/firewall]
- Fibres optiques pour liaisons intersites ou inter-[jarretières/switches/routeurs/firewall]
Climatisation
La climatisation entretient une température homogène d'environ 20 degrés Celsius, essentielle car le fonctionnement des systèmes informatiques génère beaucoup de chaleur, et deviennent défectueux au-delà d'un certain seuil de température[12].
Un centre de traitement moderne est conçu pour optimiser le refroidissement de tous les serveurs, et donc réduire le coût énergétique de l'installation, permettant d'aussi réduire le coût d'hébergement.
La climatisation est généralement testée dès la réception du centre, couramment[réf. souhaitée] au moyen d'aérothermes générant de l'air chaud ou de bancs de charge (rackables) pouvant être insérés dans les baies si celles-ci sont déjà présentes.
La climatisation et les systèmes de refroidissement représentent de 40 à 50 % de la consommation énergétique des centres de données[13],[14].

Organisation de la climatisation
Au minimum, de l'air chaud est aspiré et de l'air froid insufflé sans organisation particulière, mais l'architecture du site est de plus en plus conçue pour éviter que l'air chaud et l'air froid se mélangent trop vite, afin d'économiser l'énergie. Des caches obturent les parties inutilisées des baies, pour ne pas perturber le flux d'air froid prévu.
Des couloirs chauds alternent avec des couloirs froids, un couloir sur deux insuffle l'air froid, par le côté avant des serveurs, via des baies grillagées, l'autre couloir aspire l'air chaud par l'arrière. Certains équipements réseau (ex. : commutateurs réseau) peuvent avoir le refroidissement avant arrière ou arrière avant selon les besoins, ce qui simplifie le câblage. Le rendement est meilleur, mais l'air chaud peut encore partiellement se mélanger, à l'air froid en bout de rangée de baie ou par-dessus les baies[15].
Utilisation d'un cube de confinement avec corridor chaud, ou froid, selon les choix des constructeurs. Le « cube » dans lesquelles sont placées les baies, comporte un plafond et des portes à double ou triple vitrage, réduisant considérablement les échanges de température, seul un côté des baies échange l'air, avec les serveurs orientés en fonction du choix corridor chaud ou corridor froid. C'est aujourd'hui la solution optimale[16].
L'immersion du système dans un fluide réfrigérant (huile ou fluide minéral) est possible, encore expérimentale et réservée à des serveurs à haute intensité de flux de données et devant les traiter massivement[17].
Systèmes de production de l'air froid

Le compresseur frigorifique est la base des systèmes de refroidissement, cependant, ils peuvent comporter des bains liquides permettant d'améliorer le rendement. Le free cooling (refroidissement à air, éventuellement associé à une pompe à chaleur) permet de limiter le recours à des refroidisseurs et ainsi de réduire la facture énergétique. Le free cooling n'est intéressant que dans les implantations où l'air extérieur est froid suffisamment longtemps durant l'année. La climatisation peut être complétée par un refroidissement à eau (hydrocooling), l'eau étant 4 000 fois plus efficace que l'air pour extraire et évacuer la chaleur, la chaleur évacuée pouvant éventuellement être récupérée.
La chaleur, plutôt qu'évacuée à l'air libre, peut être valorisée dans des installations proches (voir section infra).
Composantes réseau
Les composantes réseau sont notamment[19] :
- les switch et routeurs ;
- les commutateurs ;
- les pare-feu ;
- les passerelles ;
- les systèmes de détection d'intrusion logicielle.
Sécurité

L'environnement physique des centres est sous stricte surveillance.
La surveillance du bon fonctionnement de la climatisation, elle-même essentielle au bon fonctionnement du matériel électronique.
L'alimentation de secours peut être fournie via un UPS et un générateur électrique ou via un groupe tournant (no-break) couplé à un accumulateur cinétique.
Dans le but de prévenir une perte d'alimentation électrique, toutes les composantes électriques, y compris les systèmes de secours, sont habituellement doublées, suivant le principe de redondance. Les serveurs dits essentiels sont de plus alimentés par un système qui fait appel à deux sources électriques indépendantes à l'intérieur du centre.
Les centres ont habituellement un plancher surélevé de 60 cm, fait de dalles amovibles. Cet espace permet la libre circulation de l'air, tout comme il facilite le câblage d'alimentation et de données par des chemins de câble différents. Cependant, des centres de données sont sans plancher technique (alimentation par le dessus des racks) afin de supporter plus facilement des éléments lourds de type mainframe (IBM z10, etc.).

Ils ont souvent des systèmes complexes de prévention et d'extinction des incendies. Les centres modernes sont souvent équipés de deux systèmes d'alarme. Le premier détecte les particules chaudes émises par les composantes surchauffées de l'équipement, particules qui provoquent souvent un feu. De cette façon, il est possible d'éliminer à sa source un foyer d'incendie (parfois, il suffit d'éteindre un ensemble à soudure pour éliminer le risque d'incendie). Un deuxième système sert à activer un ensemble d'activités si un début d'incendie se manifeste. Ces systèmes sont également dédiés à une portion du centre de traitement de données. Couplés à d'excellentes portes anti-feu et autres appareils de confinement, il est possible de contrôler le feu et de l'éteindre sans affecter le reste du bâtiment.
Les systèmes conventionnels d'extinction du feu sont aussi nocifs que le feu pour les composants électroniques, c'est pourquoi des procédés alternatifs ont été développés. Certains utilisent l'azote, l'Argonite, le FM-200 ou le FK-5-1-12 (Novec 1230), alors que d'autres se rabattent sur l'émission de fines particules d'eau ultra-pure (cette eau n'est pas électriquement conductrice, ce qui n'endommage pas les composants électroniques).
La sécurité est également essentielle au fonctionnement de tels centres. L'accès physique en est restreint au personnel autorisé, des caméras vidéo permettent de suivre les personnes sur place, des gardes de sécurité veillent à l'intégrité du lieu quand le centre est grand ou contient des informations considérées comme essentielles ou sensibles.
Gestion thermique des centres de données
Les centres de traitement de données émettent beaucoup de chaleur. Ils doivent être continuellement réfrigérés ou tempérés, par des systèmes eux-mêmes consommateurs d'énergie. Les onduleurs et la climatisation y absorbent la moitié de l'énergie consommée (début du XXIe siècle). L'American Society of Heating, Refrigerating and Air-Conditioning Engineers (ASHRAE) recommande de maintenir les serveurs de centres de données entre 15 °C et 32 °C, mais quelques installations (ex. : celle de Google en Belgique) fonctionnent à des températures allant jusqu'à 35 °C pour réduire les coûts de refroidissement. Les serveurs modernes (2012) pourraient ponctuellement supporter jusqu'à 45 °C[réf. nécessaire], mais demandent une température de 20 à 35 °C[20]. Un centre de taille moyenne requiert environ 600 000 mètres cubes d'air brassé par an[20].
En 2018, la consommation électrique cumulée des centres de données représentait environ 1 % de la demande mondiale en électricité[17],[21]. Ce taux a beaucoup augmenté dans certains pays et pourrait encore croître, selon George Kamiya (expert auprès de l'Agence internationale de l'énergie). Entre 2010 et 2020, la consommation d'énergie des grands centres de données a augmenté de 10 à 30 % par an. « La consommation globale d'énergie des centres de données (à l'exclusion de la cryptographie) devrait continuer à augmenter modérément au cours des [années suivantes], mais les tendances à long terme sont très incertaines ; le trafic Internet mondial a augmenté de 23 % en 2021, ce qui est inférieur à la hausse de 40 à 50 % provoquée par la pandémie en 2020 »[22]. « À l'échelle mondiale, les réseaux de transmission de données ont consommé entre 260 et 340 TWh en 20214, soit 1,1 à 1,4 % de la consommation mondiale d'électricité (...) Si le streaming et d'autres services à forte intensité de données ajoutent au trafic Internet de pointe, la construction d'infrastructures supplémentaires pour accueillir une capacité de pointe plus élevée pourrait augmenter la consommation globale d'énergie du réseau à long terme. (...) Le trafic de données mobiles devrait également continuer à croître rapidement, quadruplant d'ici 2027. La part de la 5G dans le trafic de données mobiles devrait atteindre 60 % en 2027, contre 10 % en 2021. Bien que les réseaux 5G devraient être plus économes en énergie que les réseaux 4G, les impacts globaux de la 5G sur l'énergie et les émissions sont encore incertains. »[22].
En Irlande, cette consommation a plus que triplé entre 2015 et 2021 ; 14 % de l'électricité du pays en 2021 était consommée par les datacenters[22]. Le pays, par des taxes très basses, a attiré de grandes entreprises telles que Google, Meta, Amazon, TikTok..., qui en 2024 y détiennent 82 data centers (actifs) auxquels s'ajoutent 14 sites en construction et 40 approuvés[23]. Les centres actifs ont en 2023 consommé 6 334 TWh, soit 20% d'électricité de plus qu'en 2022 (5 270 TWh) et 20,7% de toute l'électricité consommé par l'Irlande en 2023 (contre 17,7% en 2022 et environ 5% en 2015)[23]. Pour la 1ère fois, c'est plus que la consommation des maisons urbaines. 85% de hausse de la consommation électrique du pays entre 2015 et 2023 est due à ces centres, et l'IA pourraient compter pour 31% de la consommation d'électricité en Irlande en 2027 (scénario médian de EirGrid) ce qui est un défi pour le système électrique irlandais[23]. Au Danemark, elle devrait tripler entre 2021 et 2025 pour atteindre environ 7 % de la consommation électrique du pays[22] ; en 2020, hors minage des cryptomonnaies, « les centres de données et les réseaux de transmission de données » ont émis environ 300 Mt CO2-éq en 2020 (émissions grises incluses)[22].
L'efficience énergétique du serveur et du centre de données est l'objet d'améliorations, de leur conception à leur utilisation, notamment par adaptation du besoin à la puissance du serveur et par l'adoption du free cooling par eau ou air. Grâce à des composants plus efficients, les serveurs tendent à être de plus en plus compacts et denses (par surface)[réf. souhaitée]. L'efficacité énergétique de l'informatique augmente par ailleurs selon la « loi de Koomey »[24], c'est-à-dire qu'elle double environ tous les 1,6 ans depuis les années 1940[25] et tous les 2,7 ans depuis 2000. Une même tendance est observée pour les réseaux de transmission de données, dont l'intensité énergétique est divisée par deux tous les deux ans depuis 2000[26] ; des effets rebonds font toutefois qu'on en construit de plus en plus et qu'ils sont de plus en plus sollicités (notamment par le minage de cryptomonnaie, le streaming et l'intelligence artificielle.
Microsoft, justifiant que la majeure partie de la population vit près des côtes alors que les serveurs en sont éloignés (ce qui allonge les délais de latence dans les connexions), teste en un « centre de données immergé » en mer (baptisé Natick Project)[27]. Construit par Naval Group (ex-DCNS, français), il doit consommer 5 % de l'énergie qui serait nécessaire pour le même service à terre. Il doit être testé un an, bien que la structure soit prévue pour être immergée cinq ans, un premier serveur étant de capacité équivalente à quelques milliers de PC individuels, soit de quoi stocker près de cinq millions de films numérisés[27]. Le système est immergé dans un cylindre amarré sur le fond au large de l'archipel des Orcades (nord de l'Écosse). Il est téléopéré et son alimentation provient d'énergies marines renouvelables[27].
Récupération de chaleur
L'importante chaleur extraite des serveurs est généralement rejetée à l'air libre. L'énergie extraite peut être valorisée, mais sa température relativement faible la limite à un transport sur moins d'un kilomètre, alors que les serveurs sont souvent isolés en banlieue. Des projets variés sont néanmoins testés ou exploités[20].
Depuis les années 2010, des expériences visent à récupérer cette énergie et à la réutiliser pour des besoins énergétiques locaux ou de proximité (chauffage, réseau de chaleur, eau chaude sanitaire).
L'expérience la plus large d'Europe a été mise en place en France à Marne-la-Vallée (Seine-et-Marne), dans le parc d'activités de Val d'Europe, s'étalant aujourd'hui sur 40 ha. Le réseau de chauffage urbain de ce parc utilise la chaleur produite par le centre de données de la banque Natixis. À terme, ce centre de données compte fournir près de 26 gigawattheures par an (soit 0,026 TWh/an), permettant de chauffer 600 000 m2 de bâtiments tout en évitant l'émission de 5 400 tonnes de CO2[28]. Le centre de données de Saint-Denis permet lui la récupération d'environ 10 gigawattheures par an, assurant un taux de 75 % d'énergie renouvelable et de récupération (EnR&R) dans le réseau de chaleur du Smirec[29],[30].
À Amsterdam, l'université d'Amsterdam reçoit une eau gratuitement chauffée par le centre de données d'Equinix. À Roubaix, cinq centres d'OVHcloud, hébergeur français, sont refroidis par eau et contribuent à chauffer des bâtiments proches. À Clichy, Global Switch chauffe une serre tropicale. En Suisse, IBM chauffe la piscine d'Uitikon[31]. À Montluçon, une « chaudière numérique » complétée par une pompe à chaleur fournit l'eau chaude de 48 logements[20]. À Montréal (Canada), un « silo de serveurs », grand comme un bâtiment de ville, est passivement refroidi et voit sa chaleur récupérée par une centrale en toiture et distribuée aux voisins ; il est testé à l'éco-campus Hubert-Reeves dans le Technoparc de Montréal (en)[32].
Prospective
Dans les années 2020, face à la croissance des données générées en orbite par les satellites et à l'empreinte carbone élevée des centres de données terrestres alimentés par l'intelligence artificielle, le développement de « centres de données neutres en carbone » dans l'espace est présenté par certains comme une solution durable, exploitant l'énergie solaire abondante et le froid du vide spatial pour refroidir naturellement les systèmes, avec des architectures proposées allant des centres de calcul en orbite équipés de capteurs et d'accélérateurs d'IA jusqu'à des constellations de satellites serveurs interconnectés, dont l'efficacité carbone peut être évaluée sur l'ensemble de leur cycle de vie[33]. Mais de tels projets ont encore des coûts exorbitants : un lancement par fusée coûte de 62 à 150 millions de dollars (pour une charge utile relativement modeste), quand un data center terrestre dépense 10 à 25 millions d'électricité par an selon sa localisation et son niveau d'efficacité énergétique ; et selon sa taille (et jusqu'à la centaine de millions d'euros pour les centres de données hyperscale comme ceux d'Amazon ou de Google).
Le soleil et le froid spatial peuvent réduisent les coûts d'exploitation, mais l'assemblage et la maintenance durable en orbite restent un défi[34].
Centre de données immergés
L'implantation de centres de données dans des environnements extrêmes (mer froide, zone polaire) fait l'objet d'expérimentations documentées et d'études prospectives. Par exemple, en 2018, Microsoft a immergé puis récupéré en Écosse son deuxième centre de données sous‑marin (projet « Natick »), confirmant qu'un datacenter placé sous l'eau, refroidi naturellement et isolé de l'air et des interventions humaines, peut être plus fiable et économe en énergie qu'un centre terrestre[35],[36],[37].
Les premières expérimentations ont surtout eu lieu en Atlantique, mais le Pacifique intéresse aussi l'Industrie (en suscitant des inquiétudes concernant les impacts culturels et environnementaux, dont à Hawaï où les infrastructures existantes sont déjà fragiles, dans le contexte des tensions entre innovation et obsolescence, entre intérêts mondiaux et réalités locales, et entre logiques d'entreprise et préoccupations communautaires)[38].
Centres de données en orbite terrestre
L'idée de placer des centres de données en orbite héliosynchrone (pour garantir une alimentation solaire continue) autour de la terre a été évoquée dans plusieurs travaux prospectifs, dont en 2024 par L'étude ASCEND (Advanced Space Cloud Ecosystem for Novel Data Center), commandée en 2023 dans le cadre du programme Horizon Europe.
Mené par un consortium européen regroupant des acteurs de l'aérospatiale (Airbus Defence and Space, DLR, ArianeGroup), du numérique (Thales Alenia Space, Orange Business, CloudFerro, HPE) et de l'environnement (Carbone 4, VITO), ce travail a conclu que la mise en orbite permettrait une baisse notable des émissions de GES, la suppression du besoin d'eau pour le refroidissement et la possibilité d'une alimentation photovoltaïque. Mais l'analyse du cycle de vie (faite par Carbone 4 et VITO) montre aussi que pour avoir un bilan carbone global meilleur que celui des infrastructures terrestres, le lanceur devrait être dix fois moins polluant que les lanceurs actuels[39]. L'architecture et le déploiement pourraient être modulaires ; un gigawatt (1 GW) semble possible d'ici 2050, avec un début de déploiement envisagé pour 2035-2036. Les modules (Building Blocks, de 800 kW chacun, pourraient par exemple mesurer 200 x 80 mètres, pour un poids au sol de 32 tonnes) ; ils seraient positionnées à 1400 km d'altitude, par exemple en forme de tuiles hexagonales empilées pour le lancement puis déployées par des robots en orbite. 13 unités regroupées pourraient atteindre une puissance initiale de 10 MW (plus de 2000 PFLOPS de puissance de calcul). Et des essais en laboratoire, en conditions contrôlées, ont atteint 1,6 térabits par seconde entre émetteurs-récepteurs[40].
Selon Thales Alenia Space (joint-venture entre Thales et Leonardo), un tel projet est techniquement réaliste, et il serait rentable à long terme, avec pour chaque GW, un retour sur investissement de plusieurs centaines de milliards d'euros à l'horizon 2050 grâce à des économies d'échelle qui rendraient les coûts unitaires plus compétitifs que ceux des centres de données terrestres. Le froid et le vide spatiaux permettraient le refroidissement naturel quasi instantané de datacenters, bien plus efficacement que la climatisation (qui représente jusqu'à 40 % de la consommation énergétique d'un datacenter terrestre)[41], mais ces alternatives sont encore hautement spéculatives en raison des coûts de lancement, des difficultés de maintenance et des risques liés aux débris spatiaux (cf. coûts de lancement, difficultés de maintenance, besoins énergétiques et risques de collision avec des déchets spatiaux).
De février à mai 2025, Lonestar a mis en orbite un mini centre de données, envoyé au point de Lagrange (L1, à 326 000 km de la Terre), pour tester sa « viabilité, communication et résilience » lors d'exercices de stockage, décryptage et traitement de données, pour une IA baptisée Valkyrie. Selon Lonestar, de tels datacenters ne seraient que des outils de sauvegarde[42],[34]. La NASA et Microsoft se seraient associés à des startups pour de futurs lancements.
La start-up française Latitude s'est spécialisée dans les micro-lanceurs spatiaux (comme le Zephyr) et a produit le moteur de fusée Navier, imprimé en 3D, En 2025, elle s'associe à Madari Space (start-up des Emirats arabes unis, experte en R&D spatiale), pour proposer une infrastructure complète allant du lancement à l'exploitation de services cloud en orbite répondant aux enjeux de souveraineté numérique et d'impact environnemental des datacenters terrestres, avec de premiers tests annoncés pour 2026[43].
La Chine semble la plus avancée dans ce domaine, avec, le 14 mai 2025, le lancement réussi par l'entreprise ADA space de 12 satellites composé d'un supercalculateur, alimenté par IA et capable de stocker des données[43].
Google annonce le 4 novembre 2025 le projet de recherche Suncatcher[44], monté avec Planet Labs, société spécialisée dans les nanosatellites et l'imagerie satellitaire. Ce projet a pour objet de déployer des centres de données en orbite, alimentés par l’énergie solaire et équipés d'unités de traitement tensoriel (TPU), conçues pour l'IA[45]. Selon Google, en orbite héliosynchrone, les modules photovoltaïques peuvent produire jusqu’à huit fois plus d’énergie qu’au sol, réduisant le besoin de batteries de secours, ce qui diminue le poids et donc les coûts de lancement[46]. Comme pour les satellites Starlink de SpaceX, Google envisage une constellation de satellites, interconnectés et synchronisés par des liaisons optiques[47] à très haut débit : jusqu’à plusieurs dizaines de térabits/s, ce qui est encore un défi, défi qui pourrait être solutionné par une constellation maintenue en formation rapprochée en contrant les effets gravitationnels et sub-atmosphériques[48], capable d’atteindre des débits inter‑satellites comparables aux centres de données terrestres, avec des tests déjà validés à 1,6 Tbps[40]. Google estime que les coûts de lancement pourraient chuter à 200 dollars par kg d’ici 2035, comparable au coût d'exploitation d'un datacenter sur terre[49]. D'autres analyses, externes, suggèrent que SpaceX pourrait réduire ces coûts à environ 100 dollars/kg dès 2027[50]. Google annonce deux prototypes de satellites équipés de TPUs lancés dès 2027. En novembre 2025, Elon Musk et Jensen Huang (PDG de NVIDIA) estimaient que dans les 4 à 5 ans, cette option serait peut-être déjà la moins chère[45].
Néanmoins en 2025, le réalisme de ces projets est encore discuté, en raison de freins techniques et environnementaux majeurs : le refroidissement des puces TPU à haute densité de puissance dans le vide spatial nécessite des systèmes radiatifs passifs massifs. Google parie sur des composants standards conçus pour la Terre, malgré les contraintes spatiales, en s’appuyant sur des précédents comme l’hélicoptère Ingenuity qui sur Mars s'est montré robuste, mais pour une période relativement courte, mais les composants électroniques vulnérables ou sensibles (sous-systèmes de mémoire à large bande passante, notamment) doivent être protégés contre le rayonnement cosmique et les effets d'éruptions solaires par un blindage a priori coûteux et lourd (les TPUs v6e - Trillium - ont été soumis à des faisceaux de protons de 67 MeV pour vérifier leur endurance à 750 rad sur cinq ans ; ils se sont montrés tolérants jusqu’à environ 2 krad — doses très supérieures aux niveaux orbitaux attendus — avant corruption des données selon Google)[51]. La question de l'augmentation des débris spatiaux et le risque d'une latence trop élevée pour les applications d'IA en temps réel sont aussi évoqués[52] (mais les temps de latence pourraient pour certains usagers être réduits par rapport à ceux de la fibres optique terrestre, par exemple pour un utilisateur européen l'accès au satellite serait plus rapide qu'à un datacenter situé aux USA)[53]. Les astronomes observant à partir de la terre seront confrontés à de nouvelles interférences[54].
Sur la lune
Des start‑ups, telles que Lonestar (Lonestar Data Holdings, USA), explorent l'idée de datacenters lunaires (ou orbitaux) à petite échelle[55].
En 2025, un petit datacenter (dit Freedom) a été intégré à l'atterrisseur privé Athena IM‑2 d'Intuitive Machines en préparation d'un lancement par une fusée Falcon 9) (SpaceX), qui aurait pu en faire le premier centre de données physique en fonctionnement sur la Lune[56], mais lors de l'alunissage (6 mars 2025), l'un de ses panneaux photovoltaïques a été endommagé, entraînant une perte rapide d'énergie qui a rendu le système inopérant (avant que les équipes au sol puissent intervenir). Conçu pour fournir un service de résilience des données (Resiliency as a Service), Freedom vise à offrir des solutions de sauvegarde et de récupération à l'échelle mondiale, en s'affranchissant des risques terrestres tels que catastrophes naturelles, vols ou conflits armés[57].
Le projet prévoit aussi de tester la transmission de (contenus multimédia) Lune-Terre, et des applications connexes comme les réseaux tolérants aux délais (DTN) dans le cadre de l'« Internet du système solaire » initié par Vint Cerf, outre la mesure en temps réel du rayonnement spatial (acquise par le capteur ARMAS). Ce prototype dispose d'une alimentation photovoltaïque, de 8 To de stockage SSD Phison et d'un processeur FPGA PolarFire pour le traitement en périphérie, et son enveloppe a été imprimée en 3D par l'architecte danois Bjarke Ingels et son agence[58].
Réseau

Les communications à l'intérieur d'un centre se font maintenant presque exclusivement par Internet Protocol. Il contient donc des routeurs, des commutateurs et tout autre équipement qui permet d'assurer la communication entre les serveurs et le monde extérieur. La redondance est parfois obtenue en faisant usage de multiples équipements réseau de marques différentes.
Quelques serveurs servent à fournir aux utilisateurs de la société les services Internet et Intranet de base dont ils ont besoin : courriel, proxy, DNS, fichiers, etc.
Des équipements de sécurité réseau y sont aussi présents : pare-feu, VPN, systèmes de détection d'intrusion, etc. ainsi que des systèmes de monitoring du réseau et de certaines applications.
Applications
Les serveurs tendent à être virtualisés. En France, un tiers des serveurs hébergés dans des centres de données serait virtualisé et un cinquième à haute densité en 2011. Ces taux devaient doubler d'ici 2013[59].
Le but principal d'un centre de traitement de données est d'exécuter des applications qui traitent des données essentielles au fonctionnement d'une société. Ces applications peuvent être conçues et développées en interne par l'entreprise cliente ou par un fournisseur de progiciel de gestion d'entreprise. Il peut s'agir typiquement de ERP et CRM.
Souvent, ces applications sont réparties dans plusieurs ordinateurs, chacun exécutant une partie de la tâche. Les composantes les plus habituelles sont des systèmes de gestion de base de données, des serveurs de fichiers, des serveurs d'applications et des middleware[réf. nécessaire].
Gestion de la capacité d'un centre de données

La capacité d'utilisation d'un centre de données peut être limitée par plusieurs paramètres. Sur le long terme, les principales limites que rencontreront les exploitants seront la surface utilisable, puis la puissance disponible.
Dans la première phase de son cycle de vie un centre de données verra une croissance plus rapide de sa surface occupée que de l'énergie consommée.
Avec la densification constante des nouvelles technologies des matériels informatiques, le besoin en énergie va devenir prépondérant, équilibrant puis dépassant le besoin en superficie (deuxième puis troisième phase du cycle).
Le développement et la multiplicité des appareils connectés, des besoins en stockage et traitements des données font que les besoins des centres de données croissent de plus en plus rapidement. Il est donc important de définir une stratégie de développement du centre de données avant d'être « dos au mur ». Le cycle de décision, conception, construction est de plusieurs années. Il est donc important d'initier cette réflexion stratégique lorsque le centre de données atteint 50 % de son énergie consommée.
Le maximum d'occupation d'un centre de données doit se stabiliser autour des 85 % tant en énergie qu'en superficie occupée. En effet, les ressources ainsi ménagées serviront d'espace de manœuvre pour gérer les remplacements de matériel et permettra ainsi la cohabitation temporaire des anciennes et nouvelles générations.
Si cette limite vient à être dépassée durablement, il ne devient plus possible de procéder au remplacement des matériels, ce qui conduit inexorablement vers l'étouffement du système d'information. L'utilisation d'un outil de gestion de l'infrastructure d'un centre de données est alors recommandé, ses objectifs étant les suivants :
- évaluation continue des ressources ;
- analyse des tendances d'utilisation ;
- prévision de la croissance ;
- optimisation des ressources existantes ;
- surveillance proactive.
Le centre de données est une ressource à part entière du Système d'information (SI), avec ses propres contraintes de temps et de gestion (durée de vie 25 ans), il doit donc être pris en compte dans le cadre des plans à moyens termes du SI (entre trois et cinq ans).
Nombre et localisation des centres de traitement de données

En juin 2025, les pays qui en abritent le plus étaient les États-Unis (5 427 centres), l'Allemagne (529), le Royaume-Uni (523), la Chine (449) et la France (264)[60].
Selon le site DataCenterMap, en août 2023, le classement était les États-Unis (1 974 centres), le Royaume-Uni (278), l'Allemagne (247), le Canada (189), la France (167), l'Inde (160), l'Australie (137) et les Pays-Bas (122)[61].
Début 2023, il y avait environ 5 000 centres de données dédiés ou mutualisés dans 127 pays. Quelques pays abritent des dizaines de milliers de serveurs[62].
En 2011, on dénombrait 2 087 centres de traitement de données dans le monde. Le Groupement des industries de l'équipement électrique, du contrôle-commande et des services associés (Gimélec) estime à 130 le nombre de centres de traitement de données d'offreurs en France, dont 40 % en région parisienne[63]. Une dizaine d'années plus tard, leur nombre serait monté à près de 260 entités sur le sol français[64]. Dans ce pays, les centres de traitement sont dispersés sur l'ensemble du territoire ou concentrés dans des zones liées au réseau urbain dans les départements de Paris, d'Île-de-France (essentiellement Hauts-de-Seine, Seine-Saint-Denis), le Nord et les Bouches-du-Rhône ; l'ouest et la région Rhône-Alpes sont également des zones privilégiées[65].
Mél Hogan relève quant à lui 500 000 centres de données dans le monde en 2011, avançant même le chiffre de trois millions comme étant une estimation plus réaliste (estimations par Emerson Network Power et par The Register respectivement)[66]. En 2019, le site danois DataCenterMap recense 4 798 centres de traitement de données dans 122 pays dans le monde[67], dont 1 756 aux États-Unis et 149 en France[68].
Le critère de proximité aux bassins d'usagers[69], d'importance pour les opérateurs, se double d'une garantie de sécurité et de connectivité stable. Le coût d'installation est un autre facteur décisif : les entreprises cherchent des zones d'accueil dont le prix du foncier et le coût de construction du bâti sont les plus bas possibles. Les politiques d'allégements fiscaux en leur faveur peuvent se révéler à ce titre un levier d'attractivité majeur, même si la réglementation nationale a évolué vers un cadre plus contraignant. Ainsi, depuis 2022 en France, « l'éligibilité à l'abattement de la TICFE sera conditionnée à l'adoption d'un système de management de l'énergie et à l'adhésion à un référentiel officiel de bonnes pratiques en matière d'énergie »[70][source secondaire souhaitée].

Les services informatiques des grandes entreprises sont généralement implantés dans des centres de traitement de données, dédiés ou mutualisés. Les plus gros centres dans le monde sont ceux des géants de l'internet comme Google, qui utilise des infrastructures modulaires en conteneurs, qui peuvent héberger jusqu'à 1 160 serveurs[71] (voir Plateforme Google), ou Facebook qui a étendu son centre de traitement de Prineville dans l'Oregon[72]. Amazon a lui aussi implanté son centre de traitement dans l'Oregon, compte tenu du faible coût de l'énergie dans cet État[73]. Apple a construit son plus gros centre à Maiden en Caroline du Nord[74], pour soutenir sa stratégie de développement de l'iCloud[75].
Enjeux énergétiques
En 2018 les cinq premières entreprises mondiales en capitalisation boursière sont Apple, Amazon, Alphabet, Microsoft et Facebook, qui dépassent des géants pétrogaziers que sont Shell et ExxonMobil (en , l'entrée en bourse de Saudi Aramco change la donne, puisque la capitalisation de cette entreprise dépasse 2 000 milliards de dollars[76]). Ces nouveaux géants et les GAFAM en général contribuent au réchauffement des milieux et au réchauffement climatique par l'énergie grise qu'ils consomment[17]. Cette tendance devrait s'amplifier du fait du développement mondial d'Internet, de la vidéo en ligne, de la téléphonie sans fil, des objets connectés, du big data et de la technologie blockchain. Un rapport de l'Agence internationale de l'énergie atomique de 2017 sur le numérique et l'énergie estime que la quantité de données à stocker et manipuler par les centres de données devrait tripler entre 2014 et 2020, ce qui doit inciter à les gérer avec la plus grande vigilance ; dans un premier temps, l'optimisation énergétique devrait permettre de limiter l'augmentation de la consommation à 3 % entre 2014 et 2020[17], mais ni l'informatique quantique, ni la bio-informatique ne semblent assez mûres pour permettre un saut technologique.
En 2018, 200 térawatts-heures (TWh) ont été nécessaires au fonctionnement des centres de données, soit 1 % de la demande mondiale d'électricité[17], équivalents à la production d'environ la moitié des réacteurs nucléaires de France (379,1 TWh[77] en 2017. L'augmentation de leur efficacité nullifiera encore jusqu'en 2028 l'augmentation de la consommation induite par un accroissement du trafic, selon Dale Sartor (responsable du Centre d'expertise sur l'efficacité énergétique dans les centres de données du laboratoire national Lawrence-Berkeley, du DOE), mais la demande en électricité devrait ensuite de nouveau augmenter rapidement[17]. En 2020, la consommation mondiale atteint 650 térawatts-heures, soit entre 1 % et 3 % de la production électrique mondiale[20].
Deux enjeux sont donc de réduire la consommation informatique mondiale d'énergie et de valoriser sa chaleur de récupération (voir section Gestion thermique des centres de données).
Le seul refroidissement du matériel informatique contribue directement à 0,3 % aux émissions totales de carbone, alors que la totalité de l'informatique émet 2 % de toutes les émissions mondiales, énergie grise non comprise[17]. L'empreinte carbone de l'informatique devrait encore beaucoup augmenter, de même que son empreinte eau (en 2014, les centres de données américains ont consommé 100 milliards de litres d'eau dans les tours de refroidissement). La consommation électrique de l'informatique dans le monde dépassera probablement 20 % du total mondial avant 2030, dont le tiers pour les seuls centres de données[17]. La prospective reste délicate dans le domaine informatique, où l'innovation est rapide, mais si la cryptomonnaie (comme Bitcoin ou Ethereum) et la blockchain ou l'IA se développent sans se décarboner[78] et sans économiser l'énergie, notamment dans un contexte de gaspillage d'énergies et d'obsolescence programmée, la demande en énergie et en électricité sera encore très supérieure[17].
Anders Andrae, expert en TIC durables chez Huawei Technologies à Kista en Suède, estime que sans effort important, la consommation électrique des centres de données pourrait être multipliée par 15 entre 2015 et 2030, pour atteindre 8 % de la demande mondiale en électricité[79], mais ce chiffre est controversé[17].
Une hypothèse inverse est qu'une partie des données sera stockée et exploitée sur les millions d'ordinateurs selon le principe d'un centre de données distribuée[80] (voir infra), même si des centres de données sécurisés resteront a priori nécessaires pour les données sensibles, économique, militaires, de renseignement, de santé et personnelles notamment.
Le bas coût de l'énergie dans les années 2000-2010, permis par le gaz de schiste et la crise de 2008, ainsi que l'absence de taxe carbone ou de taxe générale sur les activités polluantes des centres de données, n'ont pas encouragé les économies d'énergie, mais des progrès sont faits[17].
De nombreux serveurs réalisent aussi des taches inutiles ; ainsi Jonathan Koomey a-t-il constaté en 2018 que presque un quart d'un échantillon de 16 000 petits serveurs installés dans des placards, gaines et sous-sols d'entreprises effectuaient en « zombies » des tâches obsolètes que des techniciens ou logiciels avaient oublié de désactiver. Selon une étude du Berkeley National Laboratory, transférer l'activité de 80 % des serveurs de petits centres de données américains vers des centres de très grande envergure plus performants entraînerait une économie de 25 % de leur consommation d'énergie[81].
Le Bitcoin, né en 2008, consommait déjà à lui seul 20 TWh d'électricité par an dans le monde en 2018, l'équivalent d'un peu moins de 10 % de la consommation des centres de données, selon Alex de Vries (consultant en données chez PwC)[82], mais il pourrait ne pas se développer autant que ce qu'espèrent ses promoteurs, ou migrer vers des types de blockchains humaines[83] ou moins énergivores, ou pourrait finalement ne pas répondre aux besoins de confiance dans les transactions[84]. L'utilisation généralisée de la blockchain par les bourses serait plus préoccupant.
En avril 2024, l'énergéticien américain Georgia Power obtient l'autorisation réglementaire pour construire 1,4 GW de capacités de production d'électricité à base de charbon et de gaz, et pour en acheter 1 GW de plus à d'autres producteurs, afin de répondre à l'explosion de la demande due à l'implantation en Géorgie de nouvelles usines et de data centers. Les fermes solaires et éoliennes se multiplient, notamment grâce aux subventions votées en 2022 (IRA), mais ces projets ne vont pas assez vite pour répondre à la demande. Selon l'Agence internationale de l'énergie, les data centers consommeront 6 % de l'électricité aux États-Unis en 2026, contre 2 % en 2022[85].
De la fin des années 2000 à 2012, la part des serveurs virtuels parmi tous les serveurs est passée de 10 à 50 %. Ceux-ci peuvent aussi contribuer à optimiser la gestion des flux d'énergie, mais l'effet rebond annule ces bénéfices[86]. Les besoins énergétiques des centres de données devraient encore croître, d'environ 16 % par an de 2023 à 2028, pour atteindre 130 GW avant 2028, « soit une croissance 33 % plus rapide que sur la période 2020-2023 pour atteindre 4 à 5 % de la consommation électrique mondiale en 2030 »[87]. Selon Olivier Devillers de la Banque des territoires, en 2025, analysant un rapport du Boston Consulting Group (BCG)[88], l'intelligence artificielle générative capte environ 35 % de la demande totale d'énergie attendue entre 2025 et 2028, mais cause 60 % de la croissance des centres de données ; selon le rapport du BCG[89], sur cette période de trois ans, le besoin de stockage de données des entreprises continuera à représenter la majorité (55 %) de la demande énergétique des centres de données[87]. On observe une tendance au gigantisme (et donc à la consommation de foncier) et à l'accélération, la consommation énergétique des centres de données devraient encore bondir de 2025 (40 MW en moyenne) à 2028 (60 MW attendus), un tiers des campus dépassant les 200 MW[87]. Les « hyperscalers » (centres de données géants) comme ceux d'Amazon, Meta, Microsoft et Google et XAI devraient représenter « 60 % de la croissance du secteur entre 2023 et 2028. Leur part dans la demande énergétique mondiale des data centers passera ainsi de 35 % à 45 % sur la même période »[88]. Les réseaux de distribution électrique, déjà confrontés à l'intermittence des ENR, devront aussi gérer les irrégularités de consommation des grands centres d'IA, par exemple en s'installant près des lieux de production électrique et près des sources fiables d'eau et de froid[87].
Un rapport de l'Agence internationale de l'énergie (AIE) publié le 10 avril 2025 estime la consommation d'électricité des centres de données à 415 TWh, soit 1,5 % de la consommation mondiale d'électricité et prévoit que leur consommation devrait plus que doubler d'ici à 2030, atteignant alors 945 TWh, soit près de 3 % de la consommation mondiale. Les États-Unis, l'Europe et la Chine représentent à eux seuls environ 85 % de la consommation mondiale. Les émissions de CO2 liées à la consommation électrique des centres de données passeraient de 180 Mt en 2024 à 300 Mt d'ici à 2035, soit moins de 1,5 % des émissions du secteur de l'énergie[90].
Enjeux environnementaux et climatiques
Le développement massif des centres de données au début du xxie siècle (notamment pour le compte de sociétés de services comme Google, Amazon ou OVH en France) a rapidement soulevé des enjeux environnementaux, notamment liés :
- à leur consommation de métaux rares ou précieux et de terres rares ;
- à une consommation croissante d'électricité de l'ensemble des centres de données ;
- à une consommation foncière croissante (par exemple, aux États‑Unis, selon CBRE Research (2024‑2025) et Statista (2025), les datacenters construits dans les années 2020 couvrent en moyenne 2 à 7 hectares par bâtiment (soit 20 000 à 70 000 m2), mais que les campus hyperscale des géants du cloud atteignent 80 à 200 hectares (plus de 300 ha pour ceux de Google ou Meta).
Selon le CBRE[11], le marché nord‑américain des datacenters est en forte progression (+ 34 % de la capacité en un an (6 922,6 MW), doublement du volume (6 350 MW) en construction entre 2023 et 2024, taux de vacance historiquement bas (1,9 %) ce qui causes une hausse des loyers (+ 12,6 % en 2024), portée par la demande massive liée à l'IA et au cloud, alors que les coûts de construction et de l'énergie augmentent aussi, évoquant un secteur en surchauffe où la disponibilité électrique devient le principal critère de localisation industrielle[11].
Les impacts environnementaux d'un data center sont surtout liés à :
- sa fabrication (bâtiments et leurs équipements : groupes froid, groupes électrogènes, onduleurs, etc.). ce segment de la filière concentre les pollutions et l'épuisement des ressources non renouvelables ;
- ses équipements informatiques et télécoms ;
- son exploitation, avec, principalement, les émissions de gaz à effet de serre, directes et indirectes, ainsi que les impacts en amont du transport et de la production de l'énergie nécessaire au fonctionnement du centre de données ; selon l'AIE, les datacenters ont consommé environ 460 TWh en 2022 et l'ensemble du numérique (datacenters + réseaux + terminaux) atteint environ 2 000 à 2 500 TWh/an[91]. ;
- la production de déchets d'équipements électriques et électroniques (DEEE), également en cause.
L'empreinte écologique globale des centres de données grandit rapidement, en dépit des progrès dans l'optimisation et le partage des ressources (de 25 % environ en 2010)[92] ont été faits et pourront encore l'être (voir ci-dessous), négativement compensés par l'effet rebond, la croissance exponentielle de la quantité de données à stocker et le développement des blockchains et du streaming font que la situation empire rapidement. En 2023, selon l'Arcep, le secteur numérique émettait 3 à 4 % des émissions mondiales de GES, en hausse à un rythme tel qu'il pourrait bientôt dépasser les 5 % (avec 2 000 térawatts-heures)[93], et sa consommation électrique annuelle était estimée entre 2 000 et 2 500 térawattheures, soit environ 7 à 8 % de l'électricité mondiale[91].
Émissions indirectes de gaz à effet de serre
Selon les études, les centres de données seraient responsables de 1 %[94] à 2 % des émissions mondiales de gaz à effet de serre en 2020, soit un impact comparable à celui du transport aérien[réf. nécessaire]. Les centres informatiques représenteraient près de 15 % de l'impact environnemental du numérique à l'échelle mondiale, tandis que les équipements utilisateurs en concentrent les deux tiers, et le réseau la part restante[95]. En 2018, les centres de données étaient responsables de 0,3 % des émissions mondiales[17].
Selon l'association française The Shift Project, le numérique dans son ensemble était responsable de 3,7 % des émissions de CO2 mondiales en 2018, contre 2,5 % en 2013[96][source insuffisante]. La consommation électrique des centres de données de l'Union européenne est estimée[97][Par qui ?] à 104 Twh en 2020[98],[99].
Amélioration du bilan carbone
Une partie de la chaleur qu'ils émettent est parfois récupérée et exploitée par les serveurs et les systèmes de stockage, notamment pour des raisons économiques (coproduction) et commerciales (image de marque). Deux leviers pour améliorer le bilan carbone sont les économies d'énergie d'une part et l'écoconception avec valorisation de la chaleur produite d'autre part. Des mesures compensatoires (compensation carbone) sont aussi envisagées ou utilisées par certains acteurs. Néanmoins, en 2020, leur empreinte carbone augmente de 9 % par an (et elle pourrait, avant 2030, atteindre jusqu'à deux fois les émissions annuelles de la France). Leur refroidissement consomme déjà 2 % de l'électricité dans le monde (et pourrait atteindre 4% en France, au détriment de la transition énergétique). Ces taux pourraient encore exponentiellement augmenter avec les nouveaux usages d'Internet (stockage massif de données, blockchains, streaming et intelligence artificielle...), ce qui est « insoutenable au regard de la contrainte climatique » et ce, « qu'importe les progrès technologiques », selon le think tank Shift project, qui appelle à urgemment inverser cette tendance[4].
Consommation d'électricité
Malgré des gains d'efficience énergétique des processeurs et en matière d'optimisation des réseaux[100] et d'efficacité énergétique des matériels informatiques[101], en raison de l'explosion des besoins, les gros centres de traitement de données sont des systèmes physiques et cybernétiques (Cyber-Physical System[102],[103]) qui consomment des quantités importantes et croissantes d'électricité[104]. Un centre de données de 10 000 m2 consommerait autant qu'une ville de 50 000 habitants[105] et un grand centre de données consomme 100 MW soit 1/10e de la production d'une centrale thermique[41].
« À l'échelle européenne, la Commission estimait en 2008 que les centres de données consommaient 56 TWh[106], dont la moitié pour refroidir les bâtiments[31] ».
Une des principales métriques utilisées pour évaluer l'efficacité énergétique d'un centre de données est l'indicateur d'efficacité énergétique ou PUE (pour Power Usage Effectiveness en anglais). Cet indicateur évalue la surconsommation électrique due à tous les équipements non informatiques du centre données. Un centre données idéal aurait un indicateur d'efficacité énergétique de 1, c'est-à-dire la totalité de la consommation électrique du centre de données serait consommée par les équipements informatiques.
La crise de l'énergie de 2022 réduit les bénéfices des opérateurs de centres de données, les coûts énergétiques passant de 50 €/MWh début 2021 à 200 €/MWh début 2022 et étant attendus à 500 €/MWh en 2023[107].
Dans un rapport publié en 2024, l'Agence internationale de l'énergie (IEA) estime que la demande mondiale d'électricité des centres de données pourrait doubler aux environs de 2026[108].
Consommation d'eau
L'expansion rapide des centres de données dédiés à l'intelligence artificielle suscite des inquiétudes majeures concernant leur consommation d'eau, en particulier dans les régions sujettes à la sécheresse. Ces infrastructures dépendent fortement des systèmes de refroidissement par évaporation pour éviter la surchauffe des serveurs, consommant des millions de litres d'eau par jour. Selon l'Agence internationale de l'énergie (AIE), un centre de données de 100 mégawatts peut utiliser jusqu'à deux millions de litres (530 000 gallons US) d'eau quotidiennement — l'équivalent de la consommation journalière de 6 500 ménages[109],[110].
Depuis 2022, plus des deux tiers des nouveaux centres de données ont été construits dans des zones en stress hydrique, comme le Texas, l'Arizona, l'Arabie saoudite ou l'Inde, où la pénurie d'eau douce est déjà critique. L'empreinte hydrique mondiale de ces infrastructures est estimée à 560 milliards de litres (148 milliards de gallons US) par an, un chiffre qui pourrait doubler d'ici 2030 en raison de la demande croissante en IA[109],[111].
Conséquences locales et globales
En Aragon (Espagne), les futurs centres de données d'Amazon sont autorisés à prélever 755 720 mètres cubes (611 acres-pieds) d'eau par an, ce qui provoque des conflits avec les agriculteurs locaux. Des tensions similaires sont observées au Chili, aux Pays-Bas et en Uruguay, où les communautés dénoncent la privatisation de l'eau au profit de l'industrie technologique[109],[112].
Engagements et critiques
Des entreprises comme Microsoft, Google et Amazon promettent d'atteindre la « positivité hydrique » d'ici 2030, s'engageant à restituer plus d'eau qu'elles n'en consomment. Cependant, leurs détracteurs soulignent que ces promesses reposent sur des mécanismes de compensation hydrique inefficaces pour résoudre les pénuries locales[109],[112].
Perspectives
Au vu des 59 nouveaux centres de données prévus d'ici 2028 dans des régions américaines en stress hydrique, et d'une demande mondiale en eau liée à l'IA atteignant 6,6 milliards de mètres cubes (5,3 millions d'acres-pieds) d'ici 2027, les experts alertent sur une trajectoire insoutenable. Kathryn Sorensen, experte en politiques hydriques à l'Université d'État de l'Arizona, demande : « L'augmentation des recettes fiscales et le faible nombre d'emplois créés justifient-ils ce coût pour l'eau[110],[111] ? »
Alternative distribuée
Pour répondre à ces trois enjeux et après que l'expérience SETI@home a montré l'intérêt du calcul distribué (en utilisant dans ce cas des ordinateurs personnels connectés à l'Internet), certains opérateurs comme AMD ont envisagé de décentraliser leurs centres de traitement de données en un réseau distribué tel que proposé par[103] d'unités (petits centres de traitement de données bénéficiant chacun d'une éolienne, maillés entre eux par des fibres optiques[113]).
Des installateurs et propriétaires de centres de traitement de données et des producteurs d'énergie[114] pourraient à l'avenir associer leurs investissements dans un réseau électrique intelligent, éventuellement intégré dans l'« Internet de l'énergie » que Jeremy Rifkin propose dans son concept de troisième révolution industrielle.
Le cloud computing pourrait alors évoluer vers un modèle totalement décentralisé, nécessitant une « gestion dynamique du refroidissement »[115],[116] (refroidir là où il faut et quand il faut, et passivement tant que possible[116]), ainsi qu'une conception différente de la sécurité des serveurs et de leurs données, de la gestion distribuée des données, de la gestion de l'énergie[117] et de la capacité des réseaux de centres de traitement de données à s'autoadapter aux fluctuations des besoins, mais aussi de l'énergie disponible[118]. Leurs réponses doivent être plus élastiques[119], sans augmentation globale des consommations d'énergie, dans le cadre d'un « green cloud »[120] qui reste à inventer.
Au début des années 2000, une solution complémentaire des précédentes apparait, qui pourraient être réservée aux données à fortement sécuriser. Elle consiste à développer des réseaux de serveurs en grande partie virtuels (ou plus précisément partagés et distribués, utilisant une partie des ressources des ordinateurs familiaux et d'entreprises ou les utilisant quand leur propriétaire ne les utilisent pas ou les sous-utilisent[121], ce qui demande aussi de repenser la sécurité informatique). Pour cela, des systèmes d'allocation sécurisée des ressources et de répartition des tâches (éventuellement différées quand elles ne sont pas urgentes) doivent encore être testés et validés à grande échelle. Dans tous les cas la recherche et développement est à développer[122].
Radiateurs numériques : C'est un pseudo-radiateur électrique, qui irradie la chaleur fatale informatique sous forme de chaleur utile. Les cartes mères et leurs processeurs remplacent tout ou partie de l'élément chauffant à effet joule[123].
En 2013, une expérience propose de délocaliser des serveurs chez des particuliers en lieu et place de radiateurs[124], ce qui n'a d'intérêt qu'en saison froide.
Le , dans le cadre du Projet Natick, Microsoft et Naval Group ont immergé leur premier centre de données au large des Orcades en Écosse fonctionnant complètement en autonomie avec des énergies renouvelables.
Indicateurs environnementaux
Les indicateurs proposés par le Green Grid sont les suivants[125] :
- le green energy coefficient (GEC) quantifie la part d'énergie renouvelable consommée par un centre informatique. Il se calcule en divisant la quantité d'électricité consommée (kWh) issue de sources primaires renouvelables par la consommation totale du centre de données ;
- l'energy reuse factor (ERF) mesure la quantité d'énergie utilisée en dehors du centre de données. Cet indicateur est calculé en divisant la quantité d'énergie réutilisée (kWh) par la quantité totale d'énergie consommée par le centre informatique (kWh). L'énergie réutilisée peut prendre différentes formes : chaleur, électricité, etc. ;
- le carbon usage effectiveness (CUE) permet d'extrapoler un volume d'émissions de gaz à effet de serre (GES) à partir de la consommation électrique du centre de données. On le calcule en divisant le total des émissions d'équivalent CO2 (kgCO2eq) par le total de la quantité d'énergie consommée (kWh) par le centre informatique.
L'organisme Uptime Institute a défini une certification des centres de traitement de données en quatre catégories.
Législation
Perspectives de régulation
Diverses préconisations sont formulées pour préserver l'écosystème social urbain ou rural en jeu. Si certains élus locaux en appellent à des moratoires communaux ou nationaux — à l'image des Pays-Bas en 2019[126] —, le corps citoyen et militant[Qui ?][127] préconise à court terme un travail de pédagogie auprès des populations d'accueil pour pallier le manque de transparence. À Marseille, dont l'effet d'îlot de chaleur urbain est renforcé par la présence de nombreux centres de données à proximité des nœuds de raccordement électrique et numérique[128],[64], Sébastien Barles, conseiller métropolitain à Aix-Marseille-Provence, plaide par exemple pour la création de commissions locales d'information[129], comme cela a pu être mis en place au sujet du nucléaire.
Des dispositions législatives spécifiques sont également évoquées pour l'attribution et l'exploitation du foncier occupé, notamment selon une logique de compensation. L'occupation ou l'octroi des sols pourrait ainsi être conditionnée à un ratio d'emplois créés ou à une contribution financière à la transition écologique au bénéfice du territoire concerné[130].
Accidents
En Europe, toute destruction de données personnelles (temporaire ou définitive), y compris accidentelle, est assimilable à une violation de données au sens du RGPD[131],[132] et doit donner lieu à une notification aux personnes concernées[133],[134].
En France, saufs si « la mise en œuvre d'un plan de reprise d'activité (PRA) ou d'un plan de continuité d'activité (PCA) a permis d'assurer la continuité du service ; ou si les données ont été restaurées à partir des sauvegardes, sans conséquence significative pour les personnes (ex. : les conséquences sont limitées à l'impossibilité de passer une commande pendant quelques heures) », les gestionnaires/propriétaires de datacenter ont obligation de documenter et de notifier à la CNIL toute destruction ou violation connue de donnée (les faits, ses effets et les mesures prises pour y remédier) dans un registre tenu en interne[131].
Notes et références
- ↑ Livre Blanc « Datacenters, une chance pour la France », sur globalsecuritymag.fr.
- ↑ Yves Grandmontagne, « Où sont les data centers dans le monde ? », sur dcmag.fr, .
- ↑ Renaud Lecadre, « Data centers : la France, numéro 6 mondial, pourrait tripler sa puissance d’ici dix ans », sur liberation.fr, .
- « Consommation électrique des data centers : et si on rationnait l'IA ? », sur usbeketrica.com (consulté le ).
- ↑ Commission d’enrichissement de la langue française, « centre de données », sur FranceTerme, ministère de la Culture (consulté le ).
- ↑ « centre de traitement de données », Grand Dictionnaire terminologique, Office québécois de la langue française (consulté le ).
- ↑ Frédéric Bordage, Sobriété numérique, les clés pour agir, Buchet Chastel, 2019, p. 56.
- ↑ Thierry Lévy-Abégnoli, Climatisation et serveurs : vers des salles informatiques plus vertes, ZDNet France, le .
- ↑ « Infrastructure : vers la consolidation et la convergence », ZDNet, (lire en ligne).
- ↑ Batiactu, « Expansion et enjeu énergétique pour la filière du datacenter en France », sur Batiactu (consulté le ).
- (en) « North America Data Center Trends H2 2024 », sur cbre.com (consulté le ).
- ↑ Les progrès des équipements informatiques, Christophe Auffray, ZDNet France, le .
- ↑ « Énergie consommée par les data centers », sur planetoscope.com (consulté le ).
- ↑ « La climatisation, bête noire des datacenters », sur Actu-Environnement (consulté le ).
- ↑ Christophe Auffray, Des couloirs chauds et froids, ZDNet France, le .
- ↑ Christophe Auffray, Des corridors froids pour accroître le rendement énergétique, ZDNet France, le .
- (en) N. Jones, « How to stop data centres from gobbling up the world's electricity : The energy-efficiency drive at the information factories that serve us Facebook, Google and Bitcoin », Nature, no 561, , p. 163-166 (DOI 10.1038/d41586-018-06610-y).
- ↑ datadock.eu Caractéristiques techniques - Refroidissement.
- ↑ (en) Mauricio Arregoces et Maurizio Portolani, Data Center Fundamentals, (ISBN 9781587050237), p. 150.
- Benoît Berthelot, « La lourde facture environnemental des data center », Capital, (lire en ligne, consulté le ).
- ↑ Voir la section « Enjeux énergétiques »
- (en-GB) Data Centres and Data Transmission Networks (rapport de suivi), (lire en ligne).
- « Jusqu'où ira l'appétit croissant d'électricité des data centers en Irlande ? », sur connaissancedesenergies.org, 16 août 2024 - 12:00 (consulté le ).
- ↑ Jonathan Koomey, Stephen Berard, Marla Sanchez et Henry Wong, « Implications of Historical Trends in the Electrical Efficiency of Computing », IEEE Annals of the History of Computing, vol. 33, no 3, , p. 46–54 (ISSN 1058-6180, DOI 10.1109/MAHC.2010.28, lire en ligne, consulté le ).
- ↑ (en) « Moore's Law Might Be Slowing Down, But Not Energy Efficiency », sur IEEE Spectrum (consulté le ).
- ↑ (en-GB) « The carbon footprint of streaming video: fact-checking the headlines – Analysis », sur IEA (consulté le ).
- Et si on immergeait les data centers dans les océans ?, batiactu.com, .
- ↑ « Se chauffer grâce à l'énergie des serveurs informatiques », Le Monde, (lire en ligne, consulté le ).
- ↑ « La chaleur fatale d'Equinix chauffera le centre aquatique de Saint-Denis », sur Les Échos, .
- ↑ « Inauguration de la Récupération de la chaleur fatale du Data center à Saint-Denis le 21 juin 2024 », sur Syndicat mixte des réseaux d'énergie calorifique, .
- « Se chauffer grâce à l'énergie des serveurs informatiques », Le Monde, .
- ↑ François Huot, Centre de données : Deux approches différentes , mais révolutionnaires [PDF], sur Directioninformatique.com (archive), .
- ↑ (en) Ablimit Aili, Jihwan Choi, Yew Soon Ong et Yonggang Wen, « The development of carbon-neutral data centres in space », www.nature.com, , p. 1–11 (ISSN 2520-1131, DOI 10.1038/s41928-025-01476-1, lire en ligne, consulté le ).
- « Envoyer des data centers en orbite : révolution ou mirage intersidéral ? », sur usbeketrica.com (consulté le ).
- ↑ (en) Ben Cutler, Spencer Fowers, et al., « Project Natick: The challenges of deploying a subsea datacenter », IEEE Communications Magazine, vol. 58, no 10, , p. 44‑50 (DOI 10.1109/MCOM.001.2000152).
- ↑ (en) « Natick Northern Isles Data Center », sur Microsoft Research, (consulté le ).
- ↑ (en) Kevin Simon, « Project Natick — Microsoft's self-sufficient underwater datacenters », IndraStra Global, vol. 4, no 6, , p. 4 (lire en ligne).
- ↑ (en) Tonia Sutherland et Gailyn Bopp, « The Pacific futures of subsea data centers », New Media & Society, vol. 25, no 2, , p. 345–360 (ISSN 1461-4448 et 1461-7315, DOI 10.1177/14614448221149944, lire en ligne, consulté le ).
- ↑ « Les data centers dans l'espace sont-ils un levier pour décarboner le secteur digital ? | Carbone 4 », sur carbone4.com (consulté le ).
- (en) « Orbiting AI data centers could become reality following Google's tests », sur TechRadar, (consulté le ).
- « Numérique : le grand gâchis énergétique », sur CNRS Le journal (consulté le ).
- ↑ (en-US) Matt Swayne, « Space Data Centers: Space May be The Next Frontier for Data Storage and Security », sur Space Insider, (consulté le ).
- Annabbelle Delalandre, Idris Humeau, « Newspace : Latitude à l'assaut des data centers orbitaux dans une alliance Franco-émirati », sur Portail de l'IE, (consulté le ).
- ↑ (en) Google, « Exploring a space-based, scalable AI infrastructure system design », sur research.google, (consulté le ).
- « Project Suncatcher: Google to test AI data centres in space », sur Connected to India, .
- ↑ « Google plans to put AI data centre in space: Project Suncatcher revealed », sur India Blooms, .
- ↑ « Project Suncatcher: Google to launch TPUs into orbit with Planet Labs », sur Data Center Dynamics, .
- ↑ Le contrôle orbital précis d'une constellation est complexe, devant être modélisé par des équations de Hill-Clohessy-Wiltshire et des simulations numériques affinées
- ↑ « Google Project Suncatcher », sur Google Keyword Blog, .
- ↑ « Google Suncatcher: AI data centres in space », sur InfoQ, .
- ↑ (en) Ryan Whitwam, « Meet Project Suncatcher, Google’s plan to put AI data centers in space », sur Ars Technica, (consulté le ).
- ↑ (en) Neerja Rampal, « Google’s ‘Suncatcher’ Space Data Center Is a Bold—and Troubling—Plan », sur MIT Technology Review, (consulté le ).
- ↑ En effet, dans les fibres optiques en silice, la vitesse de la lumière est environ 31 % plus lente que dans le vide » : (en-US) « Optical fiber is as fast as ... speed of light », sur scienceinfo.net, (consulté le ).
- ↑ (en) John Timmer, « Astronomers find growing number of Starlink satellite tracks », sur Ars Technica, (consulté le ).
- ↑ (en) « Lonestar raises $5m to build lunar data centers », sur Data Center Dynamics, (consulté le ).
- ↑ (en) « Lonestar prepares Freedom lunar data center for space launch », sur NotebookCheck, (consulté le ).
- ↑ (en) « Lonestar Data Holdings set to launch first moon-based data center », sur Lightwave Online, (consulté le ).
- ↑ (en) « Freedom Data Center », sur Bjarke Ingels Group (consulté le ).
- ↑ Markess International, Datacenters & Clouds Privés d'Entreprise, Approches – Perspectives 2013 [PDF].
- ↑ Alexandre Piquard, Adrien Pécout et Olivier Pinaud, « Data centers et intelligence artificielle : la course au gigantisme »
, Le Monde, (consulté le ).
- ↑ (en) « Data Centers - Global Database », sur datacentermap.com, (version du sur Internet Archive).
- ↑ Michel Robert, « La réalité physique du monde numérique », sur The Conversation, (consulté le ).
- ↑ « Carte des datacenters de Paris », sur france-datacenter.fr (consulté le ).
- « Dans la peau de l'info. Ce qu'il faut savoir sur les data centers, et pourquoi Marseille veut freiner leur installation », sur Franceinfo, (consulté le ).
- ↑ Cartographie des centres de données en France à l'ère du cloud computing, sur markess.fr
- ↑ (en) Mél Hogan, « Data flows and water woes: The Utah Data Center », Big Data and Society, .
- ↑ (en) Data Center Map, « Colocation data centers », sur datacentermap (consulté le ).
- ↑ (en) Data Center Map, « Colocation France », sur datacentermap (consulté le ).
- ↑ belghaoutilina, « Les enjeux derrière la localisation des data centers », Comment voit-on la ville ?, sur Hypothèses.org, (consulté le ).
- ↑ Anastasia Gachet, « Data centers : la réduction de la TICFE conditionnée à partir du », sur APL, (consulté le ).
- ↑ (en) Inside A Google Data Center | Data Center Knowledge
- ↑ (en) Facebook Datacenter Category at Data Center Knowledge.
- ↑ (en) Amazon Building Large Data Center in Oregon, Data Center Knowledge.
- ↑ (en) « The Apple Data Center FAQ. », sur Data Center Knowledge, (consulté le ).
- ↑ (en) Timothy Prickett Morgan, « A peek inside Apple's iCloud data center », sur theregister.co.uk, (consulté le ).
- ↑ « Aramco atteint une valorisation de 2 000 milliards de dollars », La Liberté, .
- ↑ « Le nucléaire en chiffres », sur Électricité de France, (consulté le ).
- ↑ (en) J. Truby, « Decarbonizing Bitcoin: Law and policy choices for reducing the energy consumption of Blockchain technologies and digital currencies », Energy research & social science, 2018 (résumé).
- ↑ (en) A.S. Andrae et T. Edler, « On global electricity usage of communication technology : trends to 2030 », Challenges, volume 6, numéro 1, 2015, p. 117-157.
- ↑ (en) Attias V & Bramas Q, Tangle analysis for IOTA cryptocurrency [PDF], 2018.
- ↑ (en) A. Shehabi et al., United States Data Center Energy Usage Report (LBNL), 2016.
- ↑ (en) A. de Vries, « Bitcoin's Growing Energy Problem » [PDF], Joule, no 2, volume 5, 2018, p. 801-805.
- ↑ (en) Kopp H, Kargl F, Bösch C & Peter A, « uMine: a Blockchain based on Human Miners », 2018.
- ↑ (en) M. Campbell‐Verduyn et M. Goguen, « Blockchains, trust and action nets: extending the pathologies of financial globalization », Global Networks, vol. 19, no 3, , p. 308-328 (DOI 10.1111/glob.12214, présentation en ligne).
- ↑ Les énergéticiens américains lorgnent le charbon pour alimenter les data centers, Les Échos, 27 mai 2024.
- ↑ Baptiste Roux et Dit Riche, Centres de données nouveaux ou existants : l'importance de l'urbanisation Green-IT, Cleantech Republic, .
- « Implantation des datacenters : un défi pour les opérateurs et les autorités locales », sur Banque des territoires, (consulté le ).
- (en) « Breaking Barriers to Data Center Growth », sur BCG Global, (consulté le ).
- ↑ (en) « Data centers : vers une hausse de la demande énergétique mondiale de 16 % par an d'ici 2028 », sur BCG Global (consulté le ).
- ↑ Dopée par l'IA, la demande d'électricité des data centers devrait « plus que doubler » d'ici à 2030, Les Échos, 10 avril 2025.
- (en) « Electricity 2024 – Analysis », sur International Energy Agency, (consulté le ).
- ↑ (en) Saurabh Kumar Garg, Chee Shin Yeo, Arun Anandasivam, Rajkumar Buyya, « Environment-conscious scheduling of HPC applications on distributed Cloud-oriented datacenters », Journal of Parallel and Distributed Computing, vol. 71, no 6, , p. 732–749 (lire en ligne [PDF]).
- ↑ « L'empreinte environnementale du numérique », sur Arcep, (consulté le ).
- ↑ « Les data centers, un gouffre énergétique ? », sur Réseau Étudiant pour une Société Écologique et Solidaire, .
- ↑ Frédéric Bordage, Sobriété numérique, les clés pour agir, Buchet Chastel, 2019, p. 57.
- ↑ Hugues Ferrebœuf (dir.), Lean ICT - Pour une sobriété numérique, The Shift Project, , 88 p. (présentation en ligne, lire en ligne [PDF]), p. 59.
- ↑ (en) Howard Geller, « ACEEE 1996 Summer Study on Energy Efficiency in Buildings: profiting from energy efficiency », Energy Policy, vol. 25, no 5, , p. 541–542 (ISSN 0301-4215, DOI 10.1016/s0301-4215(97)89666-8).
- ↑ (en) EU Code of Conduct on Data Centre Energy Efficiency : Participant Guidelines and Registration Form, Ispra, European Energy Efficiency Platform, Commission européenne, , 21 p..
- ↑ Commission européenne, Joint Research Centre, Trends in data centre energy consumption under the European code of conduct for data centre energy efficiency., Publications Office, (DOI 10.2760/358256).
- ↑ (en) S. Nedevschi, L. Popa1, G. Iannaccone, S. Ratnasamy, D. Wetherall, « Reducing Network Energy Consumption via Sleeping and Rate- Adaptation », in Proceedings of the 5th USENIX Symposium on Networked Systems Design & Implementations (NSDI'08), San Francisco, CA, April 2008.
- ↑ (en) M. Elnozahy, M. Kistler, R. Rajamony, « Energy-Efficient Server Clusters », Power-Aware Computer Systems, 2003, p. 179-197.
- ↑ National Science Foundation. Cyber-physical systems. Technical report, NSF Workshop on Cyber-Physical Systems, 2006. NSF Workshop on Cyber-Physical Systems.
- (en) L Rao, X Liu, Le Xie, Wenyu Liu, Minimizing electricity cost: Optimization of distributed internet data centers in a multi-electricity-market environment [PDF], INFOCOM, 2010 Proceedings, 2010, 9 pages.
- ↑ (en) G. Chen, W. He, J. Liu, S. Nath, L. Rigas, L. Xiao, F. Zhao. « Energy- Aware Server Provisioning and Load Dispatching for Connection- Intensive Internet Services », in Proceedgins of the 5th USENIX Symposium on Networked Systems Design & Implementation (NSDI'08), San Francisco, CA, April 2008.
- ↑ Quand l'informatique sert aussi à se chauffer, Bati Actu, .
- ↑ La citation originale, « 56 milliards de kilowatts », est manifestement erronée et a été corrigée suivant la source sur laquelle elle se fonde : Code of Conduct on Data Centres Energy Efficiency [PDF].
- ↑ Ridha Loukil, « La crise énergétique met les opérateurs de datacenters sous pression », sur L'Usine nouvelle, (consulté le ).
- ↑ (en) Agence internationale de l'énergie, « Electricity 2024 : Analysis and forecast to 2026 » [PDF], sur iea.blob.core.windows.net, (consulté le ), p. 31.
- (en) Aminu Abdullahi, « AI Data Centers Boom is Draining Water From Drought-Prone Areas – Sustainability Tipping Point? », sur TechRepublic, .
- (en) « AI is draining water from areas that need it most », sur Bloomberg News, .
- (en) « L'IA accélère la crise de l'eau dans les régions vulnérables », sur Water Education Foundation (en), .
- (en) Cindy Gordon, « AI Is Accelerating the Loss of Our Scarcest Natural Resource: Water » [« L'IA aggrave la disparition de notre ressource la plus rare : l'eau »], sur Forbes, .
- ↑ « Installer une fibre optique coûte entre 5 000 euros et 15 000 euros par kilomètre, contre 475 000 euros pour une ligne électrique », source : (en) Steve Kester Greening the Cloud: AMD promotes promising research on Renewable-Powered Data Centers.
- ↑ (en) L. Parolini, B. Sinopoli et B. Krogh, Reducing Data Center Energy Consumption via Coordinated Cooling and Load Management, Hot-Power '08: Workshop on Power Aware Computing and Systems, ACM, 2008.
- ↑ (en) Cullen E. Bash, Chandrakant D. Patel, Ratnesh K. Sharma, Dynamic thermal management of air cooled data centers ; IEEE, 2006
- (en) Chandrakant D. Patel, Cullen E. Bash, Ratnesh Sharma, Smart Cooling of Data Centers, p. 129-137, ASME 2003 International Electronic Packaging Technical Conference and Exhibition (InterPACK2003), 6-11 juillet 2003, Maui, Hawaii, volume 2 (ISBN 0-7918-3690-8).
- ↑ (en) R. Raghavendra, P. Ranganathan, V. Talwar, Z. Wang, and X. Zhu, No power struggles: coordinated multi-level power management for the data center, in ASPLOS XIII: Proceedings of the 13th international conference on Architectural support for programming languages and operating systems. New York, NY, USA: ACM, 2008, p. 48C59.
- ↑ (en) J. Heo, D. Henriksson, X. Liu, T. Abdelzaher, « Integrating Adaptive Components: An Emerging Challenge in Performance-Adaptive Systems and a Server Farm Case-Study », in Proceedings of the 28th IEEE Real- Time Systems Symposium (RTSS'07), Tucson, Arizona, 2007.
- ↑ (en) J. Liu, F. Zhao, X. Liu, W. He, « Challenges Towards Elastic Power Management in Internet Data Centers », icdcsw, p. 65-72, 2009 29th IEEE International Conference on Distributed Computing Systems Workshops, 2009.
- ↑ (en) L. Liu, H. Wang, X. Liu, X. Jin, W.B. He, Q.B. Wang, and Y. Chen, « GreenCloud: a new architecture for green data center », Proceedings of the 6th international conference industry session on Autonomic computing and communications industry session, Barcelona, Spain: ACM, 2009, p. 29-38.
- ↑ (en) Graupner, S., Kotov, V. ; Trinks, H., Resource-sharing and service deployment in virtual data centers (Conference Publications) IEE, Systems Workshops, ; (ISBN 0-7695-1588-6).
- ↑ (en) Cullen E. Bash, Chandrakant D. Patel & Ratnesh K. Sharmaa, Efficient Thermal Management of Data Centers—Immediate and Long-Term Research Needs Efficient Thermal Management of Data Centers—Immediate and Long-Term Research Needs ; volume 9, numéro 2, 2003 DOI 10.1080/10789669.2003.10391061, p. 137-152 (résumé).
- ↑ Annexe relative à l'arrêté du relatif à l'agrément des modalités de prise en compte des systèmes Qrad de chauffage par recyclage de la chaleur fatale informatique dans la réglementation thermique 2012, ministère de la Transition écologique et solidaire, ministère de la Cohésion des territoires et des relations avec les collectivités territoriales, 2019, numéro NOR : TERL1909697A.
- ↑ Anne Drif, « Quand les ordinateurs deviennent radiateurs », Les Échos, .
- ↑ Data center : trois nouveaux indicateurs environnementaux, greenit.fr, 27 novembre 2012.
- ↑ Yves Gr et montagne, « Le gouvernement néerlandais prolonge le moratoire et veut bloquer les implantations de datacenter hyperscale », sur DCmag (consulté le ).
- ↑ « À Marseille, la démesure des data centers », sur Reporterre (consulté le ).
- ↑ médialab Sciences Po, « Les implications écologiques des data centers à Marseille », sur médialab Sciences Po (consulté le ).
- ↑ « À Marseille, la démesure des data centers », sur Reporterre (consulté le ).
- ↑ « Qu'apportent les data centers à Marseille ? », sur 20 Minutes (France), (consulté le ).
- « Incendie OVH : faut-il notifier à la CNIL ? », sur CNIL (consulté le ).
- ↑ Article 33 du règlement général sur la protection des données (RGPD) : Notifications d'une violation de données personnelles.
- ↑ Lignes directrices du Comité européen à la protection des données (CEPD) sur les notifications de violation de données [PDF].
- ↑ Article 34 du RGPD : Information des personnes à la suite d'une violation de données personnelles
Voir aussi
Articles connexes
Bibliographie
- (en) Barroso, Luiz André et Hölzle, Urs (2009) The datacenter as a computer: An introduction to the design of warehouse-scale machines ; Synthesis Lectures on Computer Architecture ; (ISBN 9781598295566) ; PDF, 120 p.
- (en) Corcoran P.M & Andrae A (2014). On thin-clients and the cloud; can smartphones and tablets really reduce electricity consumption? . In Consumer Electronics (ICCE), 2014 IEEE International Conference on (p. 81-84). IEEE.
- (en) Kandula S, Sengupta S, Greenberg A, Patel P & Chaiken R (2009) The nature of data center traffic: measurements & analysis ; Microsoft Research ; Proceedings of the 9th ; PDF, 7 p.
- (en) Chaiken, B. Jenkins, P. Åke Larson, B. Ramsey, D. Shaki b, S. Weaver, and J. Zhou. (2008) SCOPE: Easy and Ecient Parallel Processing of Massive Data Sets. In VLDB
- (en) Fichter K & Hintemann R (2014) Beyond Energy: The Quantities of Materials Present in the Equipment of Data Centers. Journal of Industrial Ecology, 18(6), 846-858.
- (en) P. Ruiu, A. Bianco, C. Fiandrino, P. Giaccone & D. Kliazovich, « Power comparison of cloud data center architectures », IEEE International Conference on Communications (ICC), Institute of Electrical and Electronics Engineers, (DOI 10.1109/ICC.2016.7510998, présentation en ligne, lire en ligne [PDF]).
Liens externes
- « Datacenters : l'énergie n'est pas donnée », La Science, CQFD, France Culture, 10 janvier 2024.
- Centres de données Google : efficacité énergétique, sources d'énergies, sécurité, etc.
- Data Center Map
Bases de données et dictionnaires
- Ressource relative à l'audiovisuel :
- Notices dans des dictionnaires ou encyclopédies généralistes :


