Dynamicznie rozwijające się centra danych, zwłaszcza te obsługujące aplikacje AI, zużywają coraz więcej prądu. Powoduje to, że zrównoważony rozwój i niezawodne dostawy energii elektrycznej są obecnie kluczową kwestią – priorytetowego znaczenia nabiera więc wprowadzanie innowacji w zakresie zasilania i chłodzenia w data center.
IDC przewiduje, że globalne wydatki na sztuczną inteligencję gwałtownie wzrosną ze 161 mld euro w 2023 r. do 468 mld euro w 2027 r. Co istotne, większość dzisiejszych centrów danych nie została zbudowana z myślą o obsłudze gigantycznego – generowanego przez AI – zapotrzebowania na energię. Algorytmy sztucznej inteligencji potrzebują ogromnej mocy obliczeniowej, co przekłada się również na większy pobór prądu.
Największe centra danych konsumują w ciągu roku tyle energii elektrycznej, co 80 tys. gospodarstw domowych. Eksperci McKinsey prognozują, że do 2030 r. obciążenie energetyczne w centrach danych wzrośnie jeszcze dwukrotnie – zużycie energii przez dostawców tego typu usług osiągnie 35 gigawatów rocznie (w porównaniu z 17 gigawatami w 2022 r.). Tak ogromne zapotrzebowanie wynika m.in. z tego, że w obiektach data center wdrażanych jest coraz więcej rozwiązań opartych na sztucznej inteligencji. Umożliwiają one świadczenie nowych usług, jednocześnie pomagając w optymalizacji działania samych centrów: zapewniają automatyzację zarządzania danymi czy zasilaniem, a także pozwalają na stworzenie inteligentnego systemu sterowania chłodzeniem. Konieczność przetwarzania większej ilości danych i związana z tym konsumpcja energii oznacza też oczywiście większy ślad węglowy.
Usługi generatywnej sztucznej inteligencji – ChatGPT, Dall-E, Midjourney czy Gemini – są obsługiwane przez gigantyczne centra danych. Coraz więcej firm korzysta też z innych aplikacji AI na własne potrzeby i wdraża je w lokalnych serwerowniach. Dlatego tak dużym wyzwaniem staje się usprawnianie procesów zarządzania infrastrukturą data center.
AI napędza zużycie energii
Analitycy grupy Dell’Oro prognozują, że w ciągu pięciu lat sztuczna inteligencja może spowodować wzrost wydatków na infrastrukturę w chmurze i centra danych o ponad bilion dolarów. Według ich przewidywań do 2028 r. wydatki kapitałowe (CAPEX) na obiekty DC będą średniorocznie rosnąć o 24% (CAGR) ze względu na rosnący popyt na obiekty związaną z obliczeniami wykonywanymi przez sztuczną inteligencję.
Do 2028 r. światowe przychody ze sprzedaży serwerów osiągną poziom prawie pół biliona dolarów, przy czym serwery obsługujące systemy do akceleracji obliczeniowej mogą wówczas stanowić ponad połowę całkowitych przychodów z tego sektora.
Zapotrzebowanie na moce obliczeniowe data center jest coraz większe ze względu na zmieniające się nawyki cyfrowe, popularność usług chmurowych, aplikacje AI, uczenie maszynowe i trendy kryptowalutowe. Centrów danych na świecie będzie przybywać średniorocznie o 12% (CAGR), by do 2030 r. było ich ponad 24 tys. – prognozuje firma analityczna ABI Research w swoim raporcie „Building Greener Data Centers to Minimize AI’s Carbon Footprint”.
Aby optymalizować procesy, obecnie firmy coraz częściej zwracają się w stronę generatywnej sztucznej inteligencji. ABI Research szacuje, że aplikacje AI i modele szkoleniowe wykorzystują obecnie 10–20% energii elektrycznej centrów danych, co jest krytycznym problemem dla infrastruktury sieciowej. Wynikające z tego zapotrzebowanie i szybka ekspansja sektora data center stawia wyzwanie zwiększonego zapotrzebowania na energię, które (według prognoz wspomnianego wyżej ośrodka badawczego) osiągnie 2477 terawatogodzin (TWh) do 2030 r.
Moc obliczeniowa procesorów graficznych i chłodzenie to najbardziej energochłonne procesy w centrum danych, stanowiące 80% zapotrzebowania na energię. Zintegrowanie nowych technologii modernizacyjnych z istniejącą infrastrukturą data center ma kluczowe znaczenie dla powstrzymania wzrostu zużycia prądu i ograniczenia emisji gazów cieplarnianych – wyjaśnia Rithika Thomas, starsza analityczka ds. zrównoważonych technologii w ABI Research.
Centra danych w Polsce
Międzynarodowa Agencja Energetyczna w raporcie „Electricity 2024. Analysis and forecast to 2026” podaje, że w 2022 r. w Unii Europejskiej zużycie energii przez około 1240 działających data center wynosiło 100 TWh (ok. 4% ogólnego zapotrzebowania), a do 2026 r. ma się zwiększyć do blisko 150 TWh (ponad 5%). Z danych zajmującej się badaniami rynku firmy PMR wynika, że w 2023 r. moc przydzielona centrom danych w Polsce wyniosła 173 MW i zwiększyła się względem 2022 r. o prawie 43%. Prognoza na 2030 r. wskazuje na co najmniej 500 MW, co oznacza średnioroczne tempo wzrostu (CAGR) na poziomie 25%.
Polskie Sieci Elektroenergetyczne (PSE) w swoim „Planie Rozwoju na lata 2025–2034” zakładają, że na koniec tego okresu centra danych będą mieć 1063 MW mocy, a ich zużycie energii będzie wynosić 9,3 TWh. Jest to nieco więcej, niż założono łącznie w scenariuszu swobodnej transformacji dla pomp ciepła (5,6 TWh) oraz elektromobilności (3,5 TWh). PSE przewiduje, że udział centrów danych w krajowym zużyciu energii elektrycznej będzie wynosić ok. 4,2–4,5%.
Zabraknie energii
Jak już wspominaliśmy wyżej, coraz powszechniej wdrażane aplikacje AI i GenAI powodują gwałtowny wzrost zużycia prądu w centrach danych – będzie on wynosił nawet 160% w ciągu dwóch lat, jak prognozują analitycy firmy Gartner. Może to przekroczyć możliwości przedsiębiorstw energetycznych w zakresie dostarczania energii elektrycznej. W wyniku tego do 2027 r. 40% istniejących data center wykorzystywanych do rozwoju AI będzie ograniczonych operacyjnie wskutek mniejszej dostępności zasilania.
Szacuje się, że moc wymagana do zasilenia serwerów zoptymalizowanych pod kątem obsługi aplikacji AI w centrach danych osiągnie 500 TWh rocznie w 2027 r., co stanowi 2,6-krotność poziomu z 2023 r. Nieuniknionym skutkiem zbliżających się niedoborów energii elektrycznej jest wzrost jej cen, co, jak wynika z prognoz Gartnera, spowoduje również zwiększenie kosztów trenowania dużych modeli językowych.
Większe wydatki
Rachunki za prąd są zdecydowanie największym bieżącym obciążeniem finansowym dla operatorów DC, stanowiąc 46% całkowitych wydatków w przypadku centrów danych przedsiębiorstw i 60% w przypadku data center dostawcówusług – czytamy w raporcie IDC „The Financial Impact of Increased Consumption and Rising Electricity Rates in Datacenter Facilities Spending”.
Eksperci firmy przewidują, że globalne zużycie energii elektrycznej w centrach danych zwiększy się ponad dwukrotnie w latach 2023–2028 – przy pięcioletniej średniej rocznej stopie wzrostu (CAGR) wynoszącej 19,5% – i osiągnie 857 TWh w 2028 r. Nie mogą więc dziwić prognozy, w myśl których obciążenia AI doprowadzą do znacznego wzrostu pojemności centrów danych (roczny przyrost średnio o 40,5% do 2027 r.), a co za tym idzie również emisji dwutlenku węgla i zużycia prądu (średnioroczne tempo na poziomie 44,7%).
Jednocześnie ceny energii elektrycznej rosną z powodu dynamiki podaży i popytu, przepisów dotyczących ochrony środowiska, wydarzeń geopolitycznych i wrażliwości na ekstremalne zjawiska pogodowe, częściowo spowodowane zmianami klimatu. IDC uważa, że trendy, które spowodowały podwyżki cen prądu w ciągu ostatnich pięciu lat, prawdopodobnie będą kontynuowane. Rosnące zużycie i wyższe koszty energii sprawią, że centra danych będą znacznie droższe w eksploatacji.
Aby lepiej zrozumieć wpływ rosnących kosztów energii elektrycznej na działanie data center, IDC przygotowało i przeanalizowało trzy scenariusze wzrostu cen prądu dla modelowego centrum danych z obciążeniem wynoszącym 1 MW w 2023 r., działającego przy 50% wydajności i efektywności wykorzystania energii (PUE) wynoszącej 1,5. Przyjęto ceny energii i wskaźniki wzrostu dla Stanów Zjednoczonych, Niemiec i Japonii. We wszystkich trzech scenariuszach procentowy wzrost wydatków na energię elektryczną przekracza wskaźnik CAGR wynoszący 15%, przy czym w większości przypadków mówimy o wzroście o ponad 20%. Badanie pokazuje również, że dodatkowe 10% w zakresie PUE może przynieść operatorom centrów danych znaczne oszczędności. „Istnieje wiele opcji poprawienia wydajności centrów danych, począwszy od rozwiązań technologicznych, takich jak zwiększona wydajność chipów i chłodzenie cieczą, po przemyślenie na nowo konstrukcji data center i metod dystrybucji energii” – wskazuje Sean Graham, dyrektor ds. badań w Cloud to Edge Datacenter Trends (IDC).
Zielone data center
Ekologizacja centrów danych ma kluczowe znaczenie dla transformacji cyfrowej, wspierając łagodzenie zmian klimatu i działania adaptacyjne. Zmniejszając ślad środowiskowy tego typu obiektów, można obniżyć emisję i osiągnąć cele zrównoważonego rozwoju – podkreślają analitycy ABI Research.
Operatorzy centrów danych aktywnie wdrażają różne strategie, mające na celu optymalizację zasilania i stabilizację sieci, dbanie o środowisko, wzmocnienie efektywności ESG, redukcję śladu węglowego i promowanie zrównoważonego rozwoju środowiskowego. Nowe technologie i strategie obejmują: lokalne mikrosieci, środki ochrony osobistej i przesuwanie obciążeń, efektywne techniki zarządzania energią oraz przepływem powietrza, wirtualizację infrastruktury, zarządzanie cyklem życia aktywów, odzyskiwanie ciepła i odpowiedzialne przetwarzanie.
„Wdrażanie rozwiązań AI w centrach danych przekłada się na większe zużycie energii, co także przyczynia się do znacznego wzrostu ciepła w tych obiektach. Aby możliwe było poprawne funkcjonowanie serwerów, konieczne jest zapewnienie odpowiedniej temperatury. Coraz częściej stawia się na chłodzenie cieczą oraz hybrydowe metody” – wyjaśnia Krzysztof Krawczyk, Senior Application Engineer w Vertiv.
Według Seana Grahama z IDC dostarczanie energooszczędnych rozwiązań to tylko część koniecznych działań. Dostawcy centrów danych, w tym usług chmurowych i kolokacji, powinni nadal priorytetowo traktować inwestycje w OZE. W szczególności energia słoneczna i wiatrowa oferują znaczące korzyści środowiskowe, a jednocześnie zapewniają najniższy uśredniony koszt pozyskania energii elektrycznej (LCOE), który odzwierciedla średni bieżący koszt netto w okresie eksploatacji generatora. Dzięki kolokacji obiektów w pobliżu źródła wytwarzania prądu z OZE dostawcy mogą obniżyć zarówno wydatki na budowę, jak i straty energii związane z dystrybucją, zwiększając ogólną wydajność i zrównoważony rozwój, a także poprawiając niezawodność sieci.
Wymagania AI
Centra danych coraz częściej stawiają na własne źródła zasilania (Bring Your Own Power, BYOP), które wykorzystują rozproszone zasoby mocy, takie jak zasilacze awaryjne UPS, systemy magazynowania energii w akumulatorach (Battery Energy Storage System, BESS) czy ogniwa paliwowe. Dotychczas służyły one jako koła ratunkowe w razie kryzysowych sytuacji, np. przerwy w dostawie prądu bądź awarii sieci. Obecnie rozwiązanie BYOP może być stosowane jako sposób na zapewnienie ciągłości działania infrastruktury. Strategia ta jest też bardziej ekologiczna – magazynowanie energii minimalizuje potrzebę uruchamiania generatorów Diesla, dzięki czemu ogranicza też emisję dwutlenku węgla do atmosfery. Metodę BYOP można również zastosować do alternatywnych źródeł odnawialnych, np. wiatru i słońca.
Tego typu mechanizm, w którym zasilacze UPS są dynamicznym źródłem zasilania i współdziałają z dostawcą energii w celu równoważenia obciążenia sieci oraz gwarantowania jej stabilności, został już uruchomiony w Szwecji. Tamtejszy dostawca usług kolokacyjnych Conapto wdrożył urządzenia, które zapewniły mu funkcje szybkiego reagowania na zmiany częstotliwości (fast frequency response, FFR) oraz możliwość korzystania z rezerw mocy w celu stabilizowania częstotliwości (frequency containment reserve demand, FCR-D). Zarządzanie popytem na energię jest możliwe dzięki zautomatyzowanemu procesowi optymalizacji wykorzystania akumulatorów litowo-jonowych podczas szczytowego zapotrzebowania na energię, bez konieczności wprowadzania znaczących zmian w infrastrukturze.
Poza implementacją strategii BYOP popularne staje się też chłodzenie cieczą, które jest jeszcze bardziej energooszczędnym rozwiązaniem. System wykorzystujący zamkniętą pętlę wodną jest w stanie magazynować ogrzane powietrze i wykorzystywać je do zapewniania ciepła np. w pobliskich gospodarstwach, domach czy też biurach. Ponadto zautomatyzowanie procesu chłodzenia oraz zintegrowanie go ze sztuczną inteligencją może ułatwić zaoszczędzenie energii. Algorytmy monitorują temperaturę oraz obciążenia serwerów i na podstawie tych danych są w stanie samodzielnie określić, ile mocy potrzeba do schłodzenia systemu.
Aby wdrożenie tego typu mechanizmów było możliwe, konieczne jest sięgnięcie po narzędzia oparte na AI. Ich zastosowanie w centrach danych może przybierać różne formy: automatyzacji rutynowych zadań, jak przeprowadzanie aktualizacji systemów, tworzenie kopii zapasowych danych czy monitorowanie systemów, ale także analizowanie informacji i monitorowanie infrastruktury pod kątem bezpieczeństwa oraz reagowanie na błędy i zagrożenia.
Idzie nowe
O trendach i innowacjach w zakresie infrastruktury data center przeznaczonej do obsługi zadań związanych ze sztuczną inteligencją oraz dynamicznych rozwiązań energetycznych, które mają wspierać obsługę aplikacji AI, mówili dyrektorzy Vertiv i eksperci branżowi na konferencji prasowej „Vertiv EMEA 2024 Driving Innovation: Powering the AI Era”, która odbyła się w listopadzie 2024 r. w Bolonii.
Według Karstena Winthera, prezesa Vertiv na region EMEA, branża data center podwoi swoją globalną moc w ciągu najbliższych pięciu lat – z obecnych 80 do ponad 160 gigawatów. To oznacza poważne wyzwanie dla dostawców infrastruktury, którzy muszą uporać się z problemami związanymi z energią i rozpraszaniem ciepła generowanym przez nowe procesory AI o wysokiej wydajności.
Winther podkreślał konieczność wprowadzania innowacyjnych technologii w obszarze zasilania i chłodzenia oraz zwiększania inwestycji w poprawę efektywności energetycznej centrów danych w związku z obsługą aplikacji AI. Zaznaczył, że nie mniej ważne pozostają kwestie regulacyjne dotyczące sztucznej inteligencji oraz korzystania z różnych źródeł energii, a także wpływ AI na kwestie cyberbezpieczeństwa w kontekście zaawansowanych narzędzi ją wykorzystujących.
Szef regionu EMEA w Vertiv rekomendował współpracę producentów chipów, przedsiębiorstw użyteczności publicznej i operatorów centrów danych przy integracji rozwiązań i rozwoju tzw. fabryk AI. Vertiv w drugiej połowie października 2024 r. poinformowało, że we współpracy z Nvidią opracowuje architekturę referencyjną zasilania i chłodzenia dla platformy Nvidia GB200 NVL72. Nowe projekty przygotowane zostały dla architektury Blackwell o mocy do 7 MW, z opcjonalną łącznością z infrastrukturą OCP (Open Compute Project). Umożliwia ona klientom przekształcenie tradycyjnej infrastruktury centrów danych i dostosowanie jej do wykorzystywania AI w kwestiach m.in. zasilania i chłodzenia. Architektura referencyjna ma przyspieszyć wdrażanie chłodzonej cieczą platformy GB200 NVL72 (o mocy do 132 kW na szafę).
Carlo Ruiz, wiceprezes ds. rozwiązań korporacyjnych i operacji regionu EMEA w Nvidii, przybliżył na konferencji Vertiv najnowsze trendy i innowacje w dziedzinie sztucznej inteligencji oraz przedstawił pełne portfolio procesorów i platform komputerowych dla AI oferowanych przez Nvidię. Wskazał na trzy istotne fazy rozwoju sztucznej inteligencji: budowa fundamentalnych modeli AI (trenowanie, języki kodowania), wdrażanie AI w przedsiębiorstwach (co obserwujemy obecnie) oraz pojawienie się sztucznej inteligencji w formie fizycznej (roboty, autonomiczne pojazdy).
„Motorem zmian w centrum danych jest coraz większa gęstość szaf. Wraz z jej wzrostem musimy dostarczać do nich więcej mocy, a także zapewnić wydajniejsze chłodzenie. Dlatego całe rozwiązanie musi być bardziej upakowane i kompaktowe” – mówił Giovanni Zanei, wiceprezes Vertiv. Według Giordano Albertazziego, dyrektora generalnego firmy, zwiększona gęstość rozwiązań odpowiedzialnych za obliczenia AI przyczynia się do wzrostu poboru mocy do trzy- i czterocyfrowych wartości kilowatów na szafę rack.
Eksperci Vertiv przewidują wzrost innowacyjności i integracji w obszarze data center. Wsparcia wymagają środowiska obliczeniowe o wysokiej gęstości infrastruktury, potrzebne są strategie uwzględniające chłodzenie cieczą i powietrzem oraz regulacje prawne zwiększające kontrolę nad mechanizmami AI. Coraz większą wagę będzie się przywiązywać do kwestii związanych ze zrównoważonym rozwojem i cyberbezpieczeństwem.
Przyszłość data center
Wdrożenie praktycznych rozwiązań, takich jak magazynowanie energii i zoptymalizowanie procesów chłodzenia, to niezbędne działania dążące w stronę bardziej zrównoważonej przyszłości centrów danych napędzanej przez sztuczną inteligencję. Integracja AI i branży data center pomoże w tworzeniu jeszcze bardziej wydajnych i innowacyjnych procesów zarządzania danymi.
Autor
Stefan Kaczmarek
Autor współpracuje z serwisami internetowymi oraz pismami poświęconymi technologiom teleinformatycznym, prowadzi autorski blog o trendach i innowacjach w branży ICT.