Datová centra spotřebovávají více energie, než kdokoli čekal. Průmysl se snaží dohnat.

2026-04-29 - Nechte mi zprávu

Po celá léta, příběh odatové centrumspotřeba energie sledovala předvídatelný oblouk. Digitalizace sice rostla, ale zvýšení efektivity díky lepším serverům, virtualizaci a konsolidaci cloudu udrželo celkovou spotřebu elektřiny překvapivě na stejné úrovni. Globální poptávka po energii datových center se po větší část desetiletí pohybovala kolem 1 procenta celkové spotřeby elektřiny – zhruba 200 terawatthodin ročně.

Ta éra končí.

Konvergence generativní umělé inteligence, těžby kryptoměn, edge computingu a exponenciální růst připojených zařízení prolomily starou křivku efektivity. Odhady odvětví nyní ukazují, že poptávka po energii v datových centrech roste ročním tempem, jaký nebyl zaznamenán od počátku 21. století. V některých regionech – Irsko, Severní Virginie, Singapur – již datová centra představují 15 až 25 procent celkové spotřeby elektřiny, což nutí regulační orgány uvalit moratoria na novou výstavbu.

V tomto kontextu se volby infrastruktury, které se kdysi jevily jako technické detaily – architektura chlazení, topologie distribuce napájení, plánování hustoty racků – staly rozhodnutími v zasedací místnosti. Náklady na energii již nejsou řádkovou položkou. Je to omezení růstu.


Jednoduchá metrika, která všechno změnila

Power Usage Effectiveness neboli PUE je již téměř dvě desetiletí standardní metrikou účinnosti v odvětví datových center. Je to jednoduchý poměr: celkový výkon zařízení dělený výkonem IT zařízení.

PUE 2.0 znamená, že na každý watt napájející servery a úložiště připadá další watt na chlazení, osvětlení, ztráty při konverzi energie a další režii. PUE 1,2 znamená, že režie spotřebuje pouze 0,2 wattu na watt IT.

Průmysl má široce přijímané úrovně založené na PUE:

Úroveň PUE DCiE Co to znamená
Platina <1,25 >0,80 Účinnost světové třídy, obvykle vyžaduje volné chlazení nebo chlazení kapalinou
Zlato 1,25 – 1,43 0,70 – 0,80 Velmi efektivní, dosažitelné s moderním designem v mírných klimatických podmínkách
Stříbro 1,43 – 1,67 0,60 – 0,70 Přijatelné pro starší zařízení nebo teplejší klima
Bronz 1,67 – 2,00 0,50 – 0,60 Typické pro starší datová centra bez větších úprav
Veletrh 2.00 – 2.50 0,40 – 0,50 Špatná účinnost, vysoké provozní náklady
Chudý >2,50 <0,40 Kritická neefektivita, pravděpodobně vyžaduje okamžitou pozornost

Problém je v tom, že mnoho organizací ve skutečnosti své PUE nezná. Odhadují. Hádají. Nebo měří pouze na hlavním elektroměru a zbytek předpokládají.

Průzkum z roku 2023 zjistil, že téměř 40 procent provozovatelů datových center nikdy neměřilo PUE na úrovni racku. Mezi těmi, kteří to udělali, byl rozptyl mezi hlášeným a skutečným PUE v průměru 0,3 bodu – dost na to, aby se zařízení přesunulo ze zlata na stříbro, aniž by si toho někdo všiml.

Kam ve skutečnosti jde síla

Pochopení toho, proč se PUE tak široce liší, začíná tím, že se podíváme na to, kde z datového centra odchází energie.

V typickém vzduchem chlazeném zařízení s PUE kolem 1,8 vypadá porucha zhruba takto:

  • IT vybavení (servery, úložiště, sítě): 55–60 procent
  • Chlazení (jednotky CRAC/CRAH, chladiče, čerpadla, suché chladiče): 30-35 procent
  • Distribuce energie (UPS, transformátory, ztráty PDU): 5-8 procent
  • Osvětlení a další zatížení zařízení: 2-4 procenta

Největší proměnnou je chladicí zátěž. Zařízení v mírném klimatu využívající venkovní vzduch k volnému chlazení může spotřebovat pouze 15 procent své energie mimo IT na chlazení. Stejné zařízení v tropickém klimatu s celoročním mechanickým chlazením by mohlo utratit 40 procent.

To je důvod, proč poskytovatelé kolokace inzerují PUE na úrovni zařízení, ale dodávají PUE na měřiče zákazníka – různá čísla, různé důsledky. To vše platí zákazník.

Posun od tradiční k cloudové infrastruktuře

Tradiční správa datových center předpokládala relativně statické prostředí. Regály se plnily měsíce nebo roky. Chlazení se dalo nastavovat pomalu. Distribuce energie byla od prvního dne předimenzovaná.

Oblaková éra změnila předpoklady. Stojany se nyní zaplňují dny. Pracovní zátěž se mezi servery automaticky přesouvá. Klastry AI s vysokou hustotou mohou odebírat třikrát více energie než sousední univerzální výpočetní stojany.

Tyto změny si vynutily přehodnocení správy infrastruktury. Vynikají tři trendy.

Za prvé, hustota roste nerovnoměrně.Standardní serverový rack před deseti lety měl 5-8 kilowattů. Dnes mají univerzální stojany 10-15 kilowattů. Vysoce výkonné výpočetní a AI tréninkové stojany běžně přesahují 30 kilowattů na stojan. Některé přesahují 50 kilowattů.

To vytváří problémy s řízením teploty, které chlazení vzduchem jen těžko řeší. Při 20 kilowattech na stojan zůstává chlazení vzduchem účinné při správném omezení. Při 30 kilowattech se stává okrajovým. Při výkonu 40 kilowattů a více se kapalinové chlazení mění z volitelného na nutné.

Za druhé, plánování kapacit se stalo prediktivním.Stará metoda – koupit větší kapacitu, než je potřeba a nechat ji nečinně – již nefunguje ve velkém měřítku. Nečinná kapacita má jak kapitálové náklady, tak náklady na průběžnou údržbu.

Moderní systémy správy infrastruktury využívají historická data a prognózy pracovního zatížení k předpovědi, kdy dojde napájení, chlazení nebo místo v racku. Nejlepší systémy mohou doporučit, zda překonfigurovat stávající kapacitu nebo objednat nový hardware, několik dní nebo týdnů, než se omezení stane kritickým.

Za třetí, požadavky na viditelnost mají napřrýžoval.Tradiční datové centrum může sledovat napájení na úrovni PDU. Moderní zařízení potřebuje viditelnost na úrovni racku, někdy na úrovni serveru a stále více na úrovni pracovní zátěže – vědět, který virtuální stroj nebo kontejnerové disky, které spotřebovávají energii.

Vrstva DCIM: Co vlastně dělá

Infrastruktura datového centraSoftware pro správu (DCIM) existuje již více než deset let, ale přijetí zůstává nerovnoměrné. Méně než polovina podnikových datových center nasadila úplný systém DCIM. Mnohé z nich využívaly jen zlomek jeho schopností.

Správně implementovaný systém DCIM dělá čtyři věci:

Správa majetku.Každý server, přepínač, PDU a chladicí jednotka jsou sledovány v databázi správy konfigurace (CMDB). Umístění, jmenovitý výkon, síťová připojení, historie údržby – to vše. Zní to jednoduše, ale mnoho organizací stále sleduje aktiva v tabulkách, které mezi aktualizacemi procházejí měsíce.

Monitorování v reálném čase.Odběr energie na úrovni PDU nebo racku, teplota a vlhkost v napájecích a vratných bodech, stav chladicího systému, stav baterie UPS. Alarmy se spustí, když se parametry odchylují od nastavených hodnot. Cílem je odhalit problémy dříve, než způsobí prostoje.

Plánování kapacit.Systém ví, kolik energie a chladicí kapacity je k dispozici, kolik se používá a kolik je rezervováno pro budoucí nasazení. Může modelovat dopad přidání nového racku s vysokou hustotou nebo vyřazení sady starších serverů.

Vizualizace.Digitální dvojče datového centra – rack po racku, dlaždice po dlaždici – ukazuje aktuální podmínky a umožňuje operátorům simulovat změny. Přidání 10 kilowattů zátěže do řádku tři, sloupce čtyři: překračuje to chladicí kapacitu? Systém odpovídá dříve, než kdokoli přesune zařízení.

Matematika efektivity, která skutečně funguje

Snížení spotřeby energie datových center není záhadou. Metody jsou dobře srozumitelné. Výzvou je implementační disciplína.

Zvyšte teplotu přiváděného vzduchu.Většina datových center běží za studena – 18 až 20 stupňů Celsia na návratu chladicí jednotky – protože to operátoři vždy dělali. Pokyny ASHRAE nyní doporučují 24 až 27 stupňů. Každý nárůst o stupeň snižuje spotřebu energie na chlazení zhruba o 4 procenta. Provoz při 26 stupních místo 20 stupních ušetří 20–25 procent chladicího výkonu.

Eliminujte míchání horkého a studeného vzduchu.Kontejnment v horké uličce, kontejnment ve studené uličce nebo vertikální výfukové kanály nutí chladicí vzduch jít tam, kde je potřeba, spíše než aby procházel krátkou cirkulací přední částí rozvaděčů. Samotná izolace obvykle snižuje energii chlazení o 15-25 procent.

Používejte pohony s proměnnou rychlostí.Ventilátory a čerpadla s konstantními otáčkami plýtvají energií při částečném zatížení. Pohony s proměnnou rychlostí přizpůsobují průtok vzduchu a průtok vody aktuálním požadavkům. Doba návratnosti rekonstrukce je obvykle 1-3 roky.

Optimalizujte provoz UPS.Většina systémů UPS běží nepřetržitě v režimu dvojité konverze – převádí střídavý proud na stejnosměrný a zpět na střídavý, i když je napájení ze sítě čisté. Moderní systémy UPS se mohou přepnout do ekologického režimu, když to kvalita energie dovolí, a dosáhnout tak 99% účinnosti namísto 94-96%. Kompromisem je krátká doba přenosu do baterie, pokud selže napájení ze sítě. U zátěží IT s napájecími zdroji určenými pro takové přenosy je riziko minimální.

Přijměte distribuci vyššího napětí.Distribuce energie při 415 V místo 208 V snižuje distribuční ztráty přibližně o 25 procent. To vyžaduje kompatibilní PDU a serverové napájecí zdroje, ale mnoho moderních zařízení to podporuje.

Jak vypadá efektivita v reálném světě

Společnost Shangyu CPSY, high-tech podnik se zaměřením na infrastrukturu datových center, hlásí PUE 1,3 pro svá modulární řešení datových center. Tím se společnost umisťuje do zlaté úrovně a posouvá se směrem k platinové.

Udávaná 25procentní úspora energie ve srovnání s konvenčními konstrukcemi pochází z více faktorů. Modulární systémy UPS s účinností 97,4 procenta na systémové úrovni snižují distribuční ztráty, které jinak běží o 15-20 procent. Přesné klimatizace s kompresory s proměnnými otáčkami a EC ventilátory upravují chladicí výkon tak, aby odpovídal skutečné tepelné zátěži, spíše než aby běžely na pevnou kapacitu. A fyzické uspořádání – zateplení horké uličky, optimální rozmístění stojanů, zvýšená podlaha s perforovanými dlaždicemi správné velikosti – řeší řízení proudění vzduchu, které podkopává mnohá jinak efektivní zařízení.

Portfolio certifikací společnosti zahrnuje ISO 9001 (řízení kvality) a ISO 27001 (řízení bezpečnosti informací). Mezi jeho zákaznické nasazení patří partnerství s Huawei, ZTE a Inspur s exportními instalacemi ve Spojených státech, Spojeném království, Německu, Francii a Austrálii.

Kde do obrazu vstupuje kapalinové chlazení

Po léta bylo kapalinové chlazení speciální technologií pro superpočítačová centra. To se rychle mění.

Tréninkové clustery AI využívající NVIDIA H100 nebo připravované GPU B200 generují 30–50 kilowattů na rack v čistě vzduchem chlazených konfiguracích. Při těchto hustotách vyžaduje chlazení vzduchu vysoké rychlosti proudění vzduchu – hlasité ventilátory, hluboké stojany a stále ještě minimální tepelnou regulaci.

Kapalinové chlazení přímo na čip odebírá 60–80 procent tepla ze zdroje. Čipy běží chladněji. Ventilátory běží pomaleji. Pokojová klimatizace zpracovává pouze zbývající teplo z napájecích zdrojů, paměti a dalších komponent.

Zvýšení účinnosti je značné. Zařízení s chlazením přímo na čip uvádějí hodnoty PUE 1,1 až 1,2. Kompromisy jsou vyšší kapitálové náklady, složitější řízení úniků a potřeba úpravy vody na úrovni zařízení.

Plně ponorné chlazení – ponoření celých serverů do dielektrické kapaliny – posouvá PUE pod 1,1, ale zůstává specializované. Většina komerčních datových center nejprve zavede chlazení přímo na čip, pro specifické zóny s vysokou hustotou pak později ponoření.

Platforma datového centra SHANGYU zahrnuje ustanovení pro architekturu chlazení vzduchem i kapalinou, přičemž uznává, že budoucí nasazení s vysokou hustotou bude vyžadovat řízení teploty na bázi kapaliny bez ohledu na návrh zařízení.

Mezera v řízení: Od reaktivního k prediktivnímu

Většina provozních týmů datových center stále pracuje reaktivně. Zazní alarm. Někdo vyšetřuje. Je použita oprava. Cyklus se opakuje.

Přechod na prediktivní správu vyžaduje tři schopnosti, které mnoha organizacím chybí.

Kompletní konfigurační data.Vědět, co je v datovém centru – každý server, každý přepínač, každý PDU, každá chladicí jednotka – je základ. Bez přesných dat CMDB je plánování kapacity jen dohady.

Granulovaná telemetrie.Měření výkonu na úrovni stojanu je minimum. Měření výkonu na server je lepší. Nejlepší, ale nejtěžší je dosáhnout atribuce výkonu na úrovni pracovního zatížení.

Analytika, která rozlišuje signál od šumu.Teplotní špička v jednom stojanu může znamenat selhání ventilátoru. Nárůst teploty přes polovinu datového centra může znamenat selhání chladiče. Systém musí podle toho rozlišovat a doporučovat reakce.

Platforma DCIM od SHANGYU poskytuje podporu zařízení SNMP a Modbus, webové rozhraní a aplikační rozhraní Windows a integraci se síťovými kamerami pro zobrazování spouštěné událostmi. Stanovené cíle jsou přímočaré: snížit nákladné prostoje, snížit denní provozní náklady prostřednictvím úplné kontroly životního prostředí a zlepšit viditelnost a sledovatelnost managementu.

Proč na tom záleží mimo podlahu datového centra

Spotřeba energie datových center představuje zhruba 1 procento celosvětové poptávky po elektřině. To číslo zní malé, dokud se nezařadí do kontextu. To je zhruba ekvivalentní celkové spotřebě elektřiny ve Spojeném království.

Ještě důležitější je, že tempo růstu se zrychluje. Průmyslové projekce ukazují, že poptávka po energii datových center se do roku 2030 zvyšuje o 10–15 procent ročně, a to díky umělé inteligenci, přijetí cloudu a pokračující expanzi připojených zařízení. Při tomto tempu by datová centra do konce desetiletí spotřebovala 3–4 procenta celosvětové elektřiny.

Zvýšení efektivity, které udrželo spotřebu energie na stejné úrovni v předchozím desetiletí, pochází z virtualizace serverů (snížení počtu fyzických serverů), zlepšené účinnosti disku (přechod z rotujících disků na SSD) a širokého nasazení volného chlazení (používání venkovního vzduchu místo mechanického chlazení). Tyto nízko visící plody byly z velké části sklizeny.

Další vlna efektivity bude pocházet z kapalinového chlazení, distribuce vyššího napětí, řízení chlazení optimalizovaného pomocí umělé inteligence a – což je možná nejdůležitější – lepšího sladění mezi kapacitou infrastruktury a skutečným zatížením IT. Tento poslední kus vyžaduje viditelnost v reálném čase a prediktivní analýzu, kterou systémy DCIM poskytují, ale jen málo zařízení plně využívá.

Některé otázky, které stojí za to položit o vaší vlastní infrastruktuře

Znáte své skutečné PUE, ne číslo na technickém listu?Pokud jste neměřili na výstupu UPS a na vstupu IT zařízení, tak nevíte. Rozdíl je ve vaší skutečné režii.

Bojují vaše chladicí systémy mezi sebou?V mnoha datových centrech jsou jednotky CRAC nastaveny s překrývajícími se pásmy teploty a vlhkosti. Jedna jednotka odvlhčuje, zatímco druhá zvlhčuje. Jeden chladí, zatímco druhý se zahřívá. To není nic neobvyklého. Také to není efektivní.

Jaký je klidový odběr energie vašich serverů?Průmyslová data ukazují, že typické podnikové servery odebírají 30–40 procent svého špičkového výkonu, když nic nedělají. Vypínání nebo uspávání nepoužívaných serverů je nejvyšší dostupnou mírou efektivity návratnosti investic. Je také nejvíce přehlížený.

Mohli byste zvýšit teplotu přiváděného vzduchu o dva stupně, aniž byste porušili specifikace zařízení?Pravděpodobně ano. Většina zařízení je dimenzována na vstupní teploty 25-27 stupňů. Většina datových center běží při 20-22 stupních. Tato šestistupňová mezera představuje roky zbytečné chladicí energie.

Kdy jste naposledy ověřili efektivitu vaší UPS?Účinnost na typovém štítku je měřena při plném zatížení s perfektním účiníkem. Reálná účinnost při částečném zatížení s reálným účiníkem může být o 5-10 bodů nižší.





Předchozí:Žádné novinky

Odeslat dotaz

X
Používáme cookies, abychom vám nabídli lepší zážitek z prohlížení, analyzovali návštěvnost webu a přizpůsobili obsah. Používáním tohoto webu souhlasíte s naším používáním souborů cookie. Zásady ochrany osobních údajů