Kiedy klient szuka Data Center dla swoich systemów IT, jednym z pierwszych parametrów, na który zwraca uwagę, jest wskaźnik PUE. Problem w tym, że sama liczba niewiele mówi bez kontekstu. A kontekst bywa złożony.

Czym właściwie jest PUE?

PUE (Power Usage Effectiveness) to stosunek całkowitej energii zużywanej przez obiekt Data Center do energii przeznaczonej wyłącznie na zasilanie urządzeń IT. W liczniku mamy więc wszystko – serwery, klimatyzatory, UPS-y, transformatory, a nawet windy i ogrzewanie silników agregatów prądotwórczych. W mianowniku – tylko sprzęt IT.

Wzór jest prosty, ale jego interpretacja już nie. Im niższy wskaźnik PUE, tym teoretycznie lepiej – oznacza to, że mniejsza część energii idzie na obsługę serwerowni, a większa na faktyczną pracę urządzeń IT.

Dlaczego niskie PUE nie zawsze oznacza lepsze Data Center?

Klienci często przychodzą z oczekiwaniem bardzo niskiego PUE. Czasem dlatego, że czytali w internecie o Data Center w Norwegii czy na Grenlandii, gdzie chłodzenie jest niemal “darmowe” przez cały rok. Tymczasem w Polsce klimat jest zupełnie inny. Latem temperatury sięgają 35 stopni i free cooling – czyli wykorzystanie zimnego powietrza zewnętrznego – nie działa a sprężarki muszą pracować z maksymalną wydajnością.

Co więcej, niskie PUE można osiągnąć kosztem bezpieczeństwa. Niektóre centra danych mają jeden tor zasilania z UPS-ami, a drugi bez. Oszczędzają energię na UPS-ach, a klient dostaje niższy poziom redundancji. Można też podnieść temperaturę w serwerowni – klimatyzatory pracują mniej intensywnie, PUE spada. Tyle że w razie awarii jednego klimatyzatora, może nie wystarczyć czasu na przełączenie na zapasowy klimatyzator, co grozi przekroczeniem parametrów środowiskowych. Nie wszystkie konfiguracje i rozmieszczenie mocnych serwerów pozwalają na stosowanie podwyższonych temperatur na wejściu.

Jest jeszcze kwestia ekologii. Niskie PUE oznacza mniejsze zużycie energii, ale jeśli ta energia pochodzi z elektrowni węglowej, to ekologiczność jest pozorna. Do tego dochodzi skala – bardzo duże Data Center może mieć świetne PUE, ale i tak zużywać kilka megawatów “brudnej” energii.

Jak mierzy się PUE – i dlaczego to ma znaczenie

PUE powinno się liczyć średniorocznie. Wynik ze stycznia – kiedy free cooling działa pełną parą – może wynieść nawet 1,1. Ale ten sam obiekt latem może mieć PUE na poziomie 1,6 czy 1,7. Pokazywanie tylko zimowych wyników to manipulacja.

Równie istotne jest to, co Data Center wlicza do całkowitej energii obiektu. Czy uwzględnia straty na UPS-ach? Transformatory? Podgrzewanie agregatów prądotwórczych? Niektóre obiekty pomijają te elementy – i przez to sztucznie zaniżają swoje PUE. Nie istnieje bowiem bardzo precyzyjna, uniwersalna definicja tego, co dokładnie powinno wchodzić w skład całkowitej energii pobieranej przez obiekt.

W dobrze zarządzanym Data Center pomiary prowadzi się w czasie rzeczywistym – co kilka minut. Liczniki instaluje się w dziesiątkach punktów: na każdym głównym obwodzie, w każdym systemie klimatyzacji, w każdej komorze serwerowej, oddzielnie dla toru pierwszego i drugiego. Taka szczegółowość pozwala nie tylko policzyć rzetelne PUE, ale też wychwycić, gdzie można coś zoptymalizować.

Efektywne zarządzanie chłodem – klucz do niższego PUE

Podstawą jest system zimnych korytarzy. Dwa rzędy szaf serwerowych ustawia się naprzeciwko siebie, a przestrzeń między nimi zabudowuje. Zimne powietrze wychodzi spod podłogi technicznej i trafia bezpośrednio do tej zamkniętej przestrzeni. Serwery wciągają je z zimnego korytarza i wypuszczają ciepłe powietrze na zewnątrz. Dzięki temu chłodzimy tylko tam, gdzie trzeba – nie całe pomieszczenie.

Kluczowe jest uszczelnienie. Każda luka między urządzeniami w szafie musi być zapełniona zaślepką. Panele w podłodze mogą być regulowane, żeby kierować powietrze dokładnie tam, gdzie jest potrzebne. Klimatyzatory mają własne czujniki temperatury i ciśnienia w zimnym korytarzu – dzięki temu automatycznie dostosowują przepływ do aktualnego obciążenia.

Granice chłodzenia powietrzem

Klasyczne systemy chłodzenia powietrzem dobrze radzą sobie z obciążeniami rzędu kilkunastu–kilkudziesięciu kW na szafę. Powyżej około 20–30 kW na rack zaczynają wymagać agresywnej optymalizacji przepływu powietrza, a w okolicach 40–50 kW praktycznie przestają być opłacalne – potrzebny jest tak duży przepływ, że powietrze staje się nieefektywnym nośnikiem chłodu i konieczne jest przejście na inne rozwiązania.

Wtedy do gry wchodzi chłodzenie cieczą, które doprowadza czynnik chłodniczy bezpośrednio do procesorów wewnątrz serwerów. Tyle że nawet w takim scenariuszu chłodzenie powietrzem nie znika całkowicie – pozostałe elementy serwera (zasilacze i inne komponenty) nadal wymagają wentylacji. Szacuje się, że między 10 a 30% procent chłodzenia i tak musi być realizowane powietrzem.

Na co zwrócić uwagę wybierając Data Center

Koncentrowanie się wyłącznie na wskaźniku PUE to droga donikąd. Niskie PUE może oznaczać świetną efektywność, ale równie dobrze może maskować kompromisy w zakresie bezpieczeństwa lub nierzetelną metodykę pomiaru.

Warto zapytać potencjalnego dostawcę o trzy rzeczy. Po pierwsze – co dokładnie wlicza w całkowitą energię obiektu przy obliczaniu PUE. Po drugie – czy stosuje system zimnych korytarzy i chłodzi tylko dedykowaną przestrzeń, czy całe pomieszczenie. Po trzecie – jak zabezpieczone jest chłodzenie: ile jest agregatów chłodniczych, ile obwodów czynnika chłodniczego, co się stanie, gdy jedno urządzenie albo jeden obwód ulegnie awarii.

 

Optymalizacja PUE ma sens, ale nie kosztem niezawodności. Najlepsze Data Center to takie, które potrafi utrzymać wysoką efektywność energetyczną przy jednoczesnym zachowaniu najwyższych standardów bezpieczeństwa i dostępności usług. Bo ostatecznie to ciągłość działania jest najważniejsza.