Menu
O mnie Kontakt

ZMASLO w swoim najnowszym filmie zabiera nas w fascynującą podróż do jednego z największych centrów danych w Polsce. Data center to miejsce, gdzie znajdują się serwery, a ich rola w dzisiejszym świecie jest ogromna, gdyż wszyscy korzystają z różnych usług internetowych, w tym YouTube'a. ZMASLO podkreśla, że budynek data center to nie tylko szereg serwerów, ale skomplikowany system zasilania i chłodzenia. W Warszawie w firmie Atman, filmowiec zaprezentował dwa centra danych - jedno już funkcjonujące i drugie w budowie, ukazując całą infrastrukturę, która wspiera te potężne serwery. Po krótkiej reklamie niezależnego sponsora, ZMASLO szczegółowo przedstawia, jakość nowoczesnych słuchawek Crave Pro Wireless.

Od początku ZMASLO wyjaśnia, jak ważne jest zasilanie dla funkcjonowania serwerów, prezentując urządzenia UPS, które zapewniają ciągłość zasilania w razie awarii. Dwie redundantne linie zasilania, każda o mocy 28 MW, gwarantują, że nawet w przypadku przerwy w dostawie prądu, data center działa bez przerwy. W razie zaniku napięcia, generatory uruchamiają się automatycznie, co ilustruje przykład małego, ale potężnego silnika generującego 2,8 MW, zdolnego zasilić około 1400 mieszkań.

Film przedstawia również ogromne zbiorniki na paliwo, które są kluczowe dla utrzymania zasilania. Kiedy ZMASLO podaje liczby - 16 generatorów i 140 tysięcy litrów diesla - widzowie mogą sobie uświadomić skalę jaką osiąga to miejsce. W kontekście systemów chłodzenia, ZMASLO wspomina o specjalnych dry coolerach, które gwarantują optymalne warunki pracy serwerów, utrzymując temperaturę w przedziale od 18 do 27 stopni Celsjusza, co ma kluczowe znaczenie dla niezawodności sprzętu.

ZMASLO nie tylko dokumentuje struktury fizyczne, ale także wyjaśnia, jak w data center kontrolowane są parametry klimatyczne. Opowiada, jak wytrącanie pierwiastków z uzdatnianej wody polepsza warunki pracy serwerów. Widzowie mają także okazję zobaczyć, jak zbudowane są elastyczne i wszechstronne pomieszczenia serwerowe, które umożliwiają klientom wynajmowanie przestrzeni, sprzętu oraz całej infrastruktury.

Na końcu ZMASLO dzieli się refleksją na temat całego doświadczenia wizyty w data center Atman, co daje widzom lepsze zrozumienie tej złożonej infrastruktury, która jest znacznie bardziej skomplikowana niż mogłoby się wydawać na pierwszy rzut oka. Statystyki filmu w chwili pisania tego artykułu mówią o 99 748 wyświetleniach oraz 4 735 polubieniach, co podkreśla dużą popularność tego materiału oraz zainteresowanie tematem centrów danych.

Toggle timeline summary

  • 00:00 Wprowadzenie do specjalnej wycieczki po centrum danych.
  • 00:08 Wyjaśnienie znaczenia centrów danych w usługach chmurowych.
  • 00:18 Podkreślenie, że widzowie oglądają przez usługi internetowe, takie jak YouTube.
  • 00:28 Wyjaśnienie nieporozumień dotyczących centrów danych.
  • 00:37 Omówienie kluczowych komponentów centrów danych, nie tylko serwerów.
  • 00:56 Lokalizacja centrum danych w Warszawie, prowadzonego przez Atman.
  • 01:07 Przegląd dwóch różnych centrów danych: jednego działającego i jednego w budowie.
  • 01:13 Wprowadzenie sponsora Crux i ich bezprzewodowych słuchawek.
  • 01:45 Szczegóły dotyczące kampusu i jego budynków zaprojektowanych do operacji serwerowych.
  • 02:19 Statystyki dotyczące liczby szaf serwerowych i ich pojemności.
  • 02:58 Opis redundancji zasilania i systemów zapasowych w centrum danych.
  • 03:35 Wprowadzenie do generatora i jego specyfikacji mocy.
  • 04:14 Omówienie ilości paliwa diesla potrzebnego do pracy generatora.
  • 06:01 Szczegóły dotyczące budowy generatorów i ich konserwacji.
  • 10:11 Podsumowanie myśli o skomplikowanych systemach w centrum danych.
  • 27:04 Podziękowania i zakończenie wycieczki.

Transcription

Dzisiaj mam dla was coś ekstra, bo będę miał okazję pokazać wam jedno z największych centrów danych w Polsce, czyli tzw. data center. Bo tyle mówi się o tym, że usługi działają w chmurze, tyle mówi się o różnych serwisach internetowych i de facto internet jest tak naprawdę podstawą tego, co my robimy. Nawet wy przecież oglądacie ten film przez YouTube'a. Tylko chmura, chmury są na niebie, a serwery muszą być na ziemi i w jakiś sposób działać. I dzisiaj chciałbym wam pokazać właśnie to. Bo wiele osób myśląc data center, myśli sobie co w tym specjalnego, od jakieś pomieszczenie z serwerami, no nic ekscytującego. No nie do końca, ponieważ serwery to jest jedna część medalu, ponieważ trzeba jeszcze w jakiś sposób je zasilić, trzeba w jakiś sposób je schłodzić. I dzisiaj właśnie chciałbym wam to pokazać. Jak działa ten cały organizm zwany data center, bo data center to nie tylko serwery. Dzisiaj jesteśmy w Warszawie w firmie Atman, która właśnie ma jedno z większych centrów danych. I tak naprawdę to dzisiaj pokażemy wam nie jedno, a dwa centra danych. Jedno, które jest już tutaj i działa, i drugie, które dopiero się buduje. Pokażemy wam serwery, generatory, systemy chłodzenia, a to wszystko po słówku niezależnego sponsora tego odcinka. Crux i ich nowe słuchawki. Crave Pro Wireless, czyli komfortowy headset z trzema trybami dźwięku. Do tego mamy łączność 2,4 GHz, Bluetooth, ale możemy używać także słuchawek przez kabel USB. Producent deklaruje czas pracy na baterii 60 godzin. A jeśli wolicie coś lekkiego, to warto zobaczyć Crux Crave RGB, który waży zaledwie 245 gramów, ma 40-milimetrowe przetworniki, stylowe podświetlenie RGB oraz sterowanie pilotem na kablu. Dowiedz się więcej w linku w opisie. Kampus, na którym się znajdujemy, ma tak naprawdę sześć budynków, które są przystosowane pod serwerownie, czyli budynki, w których faktycznie możemy znaleźć działające serwery. Tak naprawdę jest tutaj jeszcze miejsce na siódmy budynek, więc być może tutaj w miejscu, gdzie ja stoję, taki kiedyś powstanie. Natomiast w tych sześciu budynkach, które przejdziemy i postaramy się Wam pokazać poszczególne elementy, znajduje się aż 3,5 tysiąca szafrak 47U. Więc możecie sobie przyliczyć, jak wiele tutaj serwerów, czy innych switchy, czy sprzętu serwerowego można tutaj znaleźć. Skala tego przedsięwzięcia jest naprawdę duża, bo staramy się Wam to dzisiaj pokazać, a jeszcze większą skalę pokażemy Wam na sam koniec w centrum danych, które dopiero powstaje, bo tamto to będzie prawdziwy gigant. To, co pokażę Wam teraz, to będzie przy tym pikuś. Zaczynajmy. No i słuchajcie, zacznijmy od ogółu do szczegółu, czyli od czegoś, bez czego serwery w ogóle nie mogą zacząć działać, czyli od zasilania. Tak się składa, że do tego datacenteru są podprowadzone dwie redundantne linie zasilania. Każda z nich ma uwaga 28 MW. Procedura jest taka, że gdyby był zanik zasilania na tych dwóch liniach, to przejmują to w pierwszej kolejności UPS-y, które znajdują się tutaj obok mnie. Ich jest na tyle dużo, że mogą podtrzymać całe datacenter przez 15 minut. I gdy występuje ten zanik, momentalnie uruchamiają się także generatory, które pokażę Wam za chwilę. Jednak one mają taką tendencję, że w momencie, gdy się uruchamiają, mogą powodować taki nagły skok napięcia. Po to są właśnie UPS-y, które w pierwszej kolejności na chwilę to przetrzymują. Po to też, jeżeli np. jakiś generator miałby problem z wystartowaniem, to UPS-y są w stanie część tej mocy przejąć po prostu na siebie. No to chodźcie zobaczyć ten generator. Ten mały silniczek, który znajduje się tutaj za mną, to jest generator. Generator o mocy 2,8 MW. No taki mały, kompaktowy, jak sami zresztą widzicie. Zakładając, że średnie zużycie prądu gospodarstwa domowego jest na poziomie 2 kW mocy, to okaże się, że ten generator wystarczyłby na zasilenie około 1400 mieszkań. Oczywiście generator pracuje na diesla. Jest to diesel zimowy. Zgodnie ze specyfikacją powinien on tutaj wytrzymać na paliwie 48 godzin ciągłej pracy. I tutaj się dowiedziałem taką ciekawostkę. Około 470 litrów diesla idzie na godzinę pracy takiego generatora przy pełnym obciążeniu. Także no, trochę tam żłobie, co nie? No i pomyślicie sobie, o matko, duży generator, żłobie, dużo paliwa i tak dalej? Tak, to słuchajcie tego, tak naprawdę na obiekcie jest łącznie 16 generatorów. Nie dokładnie takie jak te, ale podobnej klasy, więc wyobraźcie sobie, jak duża jest ta skala, gdybyście mieli 16 tego typu generatorów. No i także muszą być przeogromne zbiorniki faktycznie na tego diesla. I rzeczywiście tutaj są zbiorniki redundantne również. I łącznie tego paliwa znajduje się tutaj 140 tysięcy litrów. 140 tysięcy litrów diesla. Fajnie, co? Dla perspektywy, moja Skodiczka na trasie pali 6 litrów diesla na 100 kilometrów. Jeśli moje kalkulacje są poprawne, to na takiej ilości paliwa byłbym w stanie zrobić trasę na Księżyc. I to 6 razy. To ten, podobno następny film będzie o budowaniu kosmicznej Skody. Jak zobaczycie w tym miejscu, mamy też takie wentylatory, takie malutkie, które wtłaczają tutaj powietrze w momencie, gdy generator działa. Jeżeli się uda, to wrzucimy Wam filmik, jak ten generator działa. Oczywiście tutaj nie jest on teraz włączony, bo byśmy prawdopodobnie mieli bardzo niemiłe doświadczenie, ponieważ jest to mega głośny silnik. Oczywiście to jest kilka razy do roku wpuszczany ten generator, żeby upewnić się, że wszystko działa. Gdyby faktycznie w przypadku zaniku napięcia musiał zacząć działać. I z tego co się dowiedziałem, to faktycznie kilka lat temu zdarzyła się taka sytuacja, że był zanik napięcia na tych dwóch liniach zasilania. No i faktycznie generatory musiały wkroczyć do akcji i przez kilka godzin podtrzymywały całe datacenter. Tutaj też, jak nam nazwa sugeruje, mamy glikol obieg. Czyli mamy tutaj faktycznie obieg chłodzenia, który przechodzi przez silnik. A także możemy zobaczyć, że mamy tutaj też odpowiednie przyłącza, które doprowadzają chłodziwo do całego silnika. I tutaj macie mnie dla skali. Tutaj idzie, zobaczcie, taka fajna rura i tam jest taki kompaktowy tłumik, który jest odpowiedzialny za wydech. Silnik o takiej mocy, poza tym, że generuje dużo hałasu, to również generuje sporo wibracji. Z tego powodu jest on zamocowany na takich specjalnych sprężynach, po to, żeby te wibracje w razie jego działania czy testowania nie przenosiły się na resztę budynków. Jak wiemy, mamy tutaj sprzęt, który jest bardzo czuły na różnej maści wibracje. I nie chcielibyśmy, żeby to się przenosiło na przykład na dyski twarde czy inne komponenty serwerów, prawda? No i oczywiście też te pomieszczenia, w których znajdują się generatory. Tu jest spoko akustyka, fajnie się tu nagrywa, bo mamy też ściany dodatkowo wygłuszone, żeby ten hałas oczywiście jak najbardziej ograniczyć, żeby nie wydostawał się poza to pomieszczenie. No i propos generatorów. Jak działa, no to gdzieś trzeba się pozbyć spalin. Widzieliście te tłumiki, no i one idą oczywiście przez budynek. Możecie zobaczyć, że tutaj wychodzą nam te takie gigantyczne, srebrne rury i idą, idą, pną się tam na sam szczyt budynku, gdzie jeszcze mamy dodatkowy końcowy tłumik i faktyczne końcówki wydechu. Tak więc skala, jak sami widzicie, jest naprawdę przeogromna. No i kończąc wątek generatorów, macie tutaj masło dla skali. Płynnie przejdziemy sobie, he he, dosłownie do chłodzenia, bo tutaj mamy jeden z dry coolerów, który jest odpowiedzialny za chłodzenie tylko i wyłącznie samych generatorów. I powiem więcej, to nie jest jedyny dry cooler, bo jak sobie popatrzymy w tamtą stronę, to tam mamy jeszcze kolejny taki box, gdzie znajdują się dwa kolejne dry coolery. To jest chłodzenie samych generatorów, które, jak sami wiecie, no nie działają non-stop, tylko od święta można powiedzieć, no ale to jest właśnie gwarantowanie bezpieczeństwa, że infrastruktura będzie działać. No i wiem, że musimy łypnąć oczkiem, to zobaczcie, kolejne dwa dry coolery. Podobno mamy wyzwanie, że kiedyś musimy normalnego kompa do czegoś takiego podłączyć. Wyszliśmy sobie na dach, przejdziemy się tutaj, jak widzicie, jestem w otoczeniu bardzo dużej ilości tych tak zwanych dry coolerów. Zasada jest taka, że na każde z pomieszczeń serwerowych przypada po cztery dry coolery. I działają one w sposób rotacyjny, to znaczy, że działają non-stop trzy, muszę uważać, żeby w coś nie wejść, żeby ich zużycie było równomierne. To znaczy, że jakiś czas działają trzy, potem przełączają się na kolejne sztuki, kolejne, kolejne i tak dalej, żeby równomiernie się zużywały. No i jedyny jest w razie czego zapasowy, gdyby któryś uległ awarii. No wszystko fajnie, bardzo dużo tych chłodnic i tak dalej, a jaka temperatura jest utrzymywana? No i tutaj w grę wchodzi tak zwany standard ASHRAE. Wrzucę wam tutaj planszę. Generalnie zasada jest taka, że wilgotność jest utrzymywana między 30 a 70%, a temperatura między 18 a 27 stopni Celsjusza. No ale wiemy oczywiście, że chłodzenie wodne musi mieć jakąś ciecz w sobie, jak to nazwa zresztą definiuje. I tutaj jest to używana tak zwana woda lodowa. To jest taka mieszanka wody z glikolem. To jest ciecz, którą się po prostu stosuje w tego typu rozwiązaniach. Zresztą w Cyfronecie, o ile pamiętam, to również podobna mieszanka była zastosowana. Podłoga tutaj na tym dachu jest zrobiona z tego typu krat. To ułatwia serwisowanie. Gdyby coś się stało pod jednym z dry coolerów, to technik może sobie zdemontować jedną z takich kratek, może dostać się tam pod skłód i zobaczyć co się stało. No i też jeszcze kwestia tak a propos systemu chłodzenia. Te wszystkie rury z tą wodą lodową, one oczywiście idą przez podłogi. No i z racji tego, że mamy tych kilka budynków, kilka pięter, no to tych rur jest bardzo dużo. Czyli istnieje ryzyko wycieku. No i z tego też powodu są czujniki. Tutaj jest właśnie taka m.in. skrzynka, która znajduje się za mną, która monitoruje to, czy gdzieś na jakimś odcinku nie pojawił się wyciek. No i jeżeli będzie, no to oczywiście zostanie to zgłoszone, no i będzie można tą usterkę wyeliminować. Tutaj mamy tzw. stację uzdatniania wody. Nie milić z żadną destylarnią czy inną bibrownią. To służy do tego, że mamy te kontrole wilgotności bezpośrednio w samych pomieszczeniach, gdzie są serwery. I czasami ta wilgotność jest za duża bądź zbyt mała. To tak naprawdę zależy od pory roku. I po to ta woda jest uzdatniana, bo ona zwyczajnie przedłuża żywotność sprzętu, który odpowiada za kontrolę tej wilgotności. I po to tutaj są wytrącane te pierwiastki, żeby nie trzeba było go tak często serwisować. Słuchajcie, taka nieoczywista rzecz, ale popatrzcie, jak duża jest ta winda. To nie tak, że ja jestem niski, tylko ta winda jest po prostu taka duża. Jeszcze chwilkę. Generalnie chodzi o to, żeby tutaj zmieściły się dwie szafy 47U. Więc generalnie zasada jest taka, żeby zmieściły się tutaj dwie szafy rak 47U. I popatrzcie na to, że nawet drzwi, które potem prowadzą do poszczególnych pomieszczeń, one też są na tyle wysokie, żeby faktycznie te szafy przez to przeszły i żeby można było je w prosty sposób tam przetransportować, a nie robić jakieś dziwne wigibasy. Ale o tak nieoczywistych rzeczach trzeba pomyśleć, gdy buduje się datacenter. Marcela macie dla skali, to wiecie, ja 1,79 m, 1,80 m, no to idąc dalej tą skalą, to jakieś co, 1,90 m, nie? I to jest całe duże pomieszczenie, które może stać się właśnie taką serwerownią. Prawdopodobnie to pomieszczenie będzie przygotowane w całości dla jednego klienta. Z tego co tutaj rozmawiałem, to przygotowanie całego takiego pomieszczenia z postawieniem serwerów i tak dalej, może się udać zrobić nawet w 3 miesiące. Tak wygląda ta przestrzeń w momencie, gdy nie ma tutaj żadnych serwerów. I pokazujemy wam to po to, że teraz przejdziemy sobie do takiego pomieszczenia, które jest już całe wyposażone. No i jesteśmy w jednej z kilkudziesięciu serwerowni, mam nadzieję, że mnie słychać. I generalnie działa to w ten sposób, że te takie zabudowane, które mamy, to są tak zwane kioski. Działa to w ten sposób, że tutaj z podłogi właśnie idzie nam chłodne powietrze z klimatyzatorów. Frontem wszystkie serwery i urządzenia, które się tutaj znajdują, zasysają to chłodne powietrze i wyrzucają je tutaj tyłem szafy rak. I jak sobie tutaj stanę, w tym korytarzu, gdzie z jednej i z drugiej strony grzeje na mnie ciepłe powietrze, to powiem wam, w bluzie robi mi się tutaj już naprawdę niekomfortowo. Więc zimny korytarz to jest takie rozwiązanie, które akurat w tym pomieszczeniu się stosuje i jest używane do efektywnego chłodzenia i odprowadzenia ciepła z serwerów. Teraz sobie tutaj wszedłem do tego zimnego korytarza, to powiem wam, jest tak całkiem przyjemnie. Jak byłbym serwerem, to chyba by mi się podobało. Natomiast oczywiście, jak widzicie, tych szaf jest tutaj bardzo dużo. Niestety nie możemy żadnej otworzyć i wam pokazać, jakie tutaj ciekawe rzeczy siedzą, ponieważ to są sprzęty od klientów, którzy aktywnie z tych sprzętów korzystają. Więc nie możemy ich narazić na jakieś przerwy w pracy. Natomiast skala tego wydaje się nieprawdopodobna, bo to jest jedno z pomieszczeń, które ja teraz mam okazję wam pokazać. A przypomnę, łącznie takich szaf rak jest około 3,5 tysiąca na tym całym kampusie. Więc to jest po prostu jakaś kompletnie niewyobrażalna liczba. Ale jakby tak się nad tym zastanowić, praktycznie każdy potrzebuje chmury, każdy potrzebuje jakiejś infrastruktury. Czy to bank, czy to sklep, czy to serwer do gier. Wszystko musi gdzieś działać, co nie? Serwery, kłodne korytarze, wszystko fajnie. No ale przecież do tych serwerów trzeba też doprowadzić w jakiś sposób internet, trzeba doprowadzić zasilanie. No i to wszystko znajduje się pod podłogą. I tutaj mamy akurat fajny taki prześwit, gdzie możemy sobie zerknąć, jak to wygląda. Tutaj akurat jest to rozwiązane w ten sposób, że na samym dole idzie zasilanie, poziom wyżej idą usługi telekomunikacyjne. Ale tu jest też jeszcze jeden fajny bajer, który chciałem wam pokazać. Mówiłem wam, że są tutaj doprowadzone do data center dwie niezależne linie zasilające, każda po 28 MW. I teraz tak. Tak naprawdę te dwie linie zasilające są podprowadzone bezpośrednio pod każdą szafę rak. I możecie zobaczyć, że jedna linia jest oznaczona kablami kolorem białym, a druga kablami kolorem czarnym. Analogicznie możemy zobaczyć, że mamy białą i czarną listwę zamontowaną już w szafie rak. To jest po to, że jeżeli mamy w serwerach dwa redundantne zasilacze, to wpinamy jeden zasilacz do jednej listwy i drugi zasilacz do drugiej listwy, po to żeby nasz sprzęt był faktycznie zasilany z jednej i z drugiej linii zasilającej. W razie gdyby na jednej z nich wystąpiła awaria. No i w zależności od potrzeb. Czy klient potrzebuje całe takie duże pomieszczenie dla siebie, czy może tylko kawałek takiego boxa, czy może potrzebuje jedną szafę rak, a może tylko jeden slot na swój sprzęt. Tutaj myślę, że fajnie byłoby powiedzieć o tym, w jaki sposób data center działa. Co? Czy ja hipotetycznie mógłbym sobie tutaj przywieźć swoje serwery? No właśnie. Co ciekawe, to właściwie tak ważne, żebyśmy byli klientem firmowym. To centrum danych, w którym jesteśmy działa w dużej mierze tak, że udostępnia przestrzeń pod serwery dla zewnętrznych firm. Czyli Atman oferuje przestrzeń, zasilanie, chłodzenie, redundancję i te wszystkie systemy, które do tej pory wam pokazałem. Większość z klientów działa właśnie w ten sposób, że wynajmują sobie szafę rak i wkładają do niej własny sprzęt, na którym konfigurują sobie usługi. Oczywiście są też więksi klienci, którzy zapełniają całe takie puste pomieszczenie, które pokazałem wam wcześniej. Ale oczywiście, gdyby ktoś chciał, to jest też możliwość wynajęcia sobie jednej maszyny wirtualnej czy sprzętu, który jest własnością Atmana. I to, jak takie serwery się składa i konserwuje, to też za moment wam pokażemy. I to jest jeden, można powiedzieć, z takich typów pomieszczeń, które możemy wam pokazać. Takiego, którego nie mogę wam pokazać na filmie, ale mogę wam wrzucić zdjęcie. Są też klienci, którzy z różnych powodów wymagają jeszcze wyższego standardu bezpieczeństwa. I są to najczęściej banki. Działa to w ten sposób, że oni mają jeszcze dodatkowo specjalnymi kratami wydzielone, dedykowane przestrzenie, które są tylko i wyłącznie na ich potrzeby. Tam jest wiele systemów bezpieczeństwa. Jeżeli technik musi coś wymienić, to jest tam kilka różnych systemów, w których musi się odbić, żeby faktycznie uzyskać do takiego sprzętu dostęp. No i słuchajcie, przejdźmy do systemu gaszenia. Oczywiście, tyle sprzętu elektronicznego takiej mocy, zawsze jest ryzyko wystąpienia awarii, zawsze jest ryzyko zwarcia czy też pożaru, więc i przed tym trzeba się zabezpieczyć. No i te butle, które widzicie za mną, które wyglądają bardzo, bardzo ciekawie, mają specjalny środek. I generalnie to się nazywa inergen. I to są tutaj gazy, które występują naturalnie w atmosferze, czyli mamy azot, argon i dwutlenek węgla, a także tutaj mamy ich zawartość procentową w tej butli. Działa to w ten sposób, że ten gaz, w momencie, gdy jest wtłoczony do pomieszczenia, w którym wystąpił alarm, obniża zawartość tlenu z 21% do mniej więcej 13%. I działa to w ten sposób, że ogień przy takiej zawartości tlenu zwyczajnie gaśnie, a gdyby oczywiście był tam w środku człowiek, no to gorzej się oddycha, wiadomo, bo jest mniej tlenu. W przypadku takiego gaszenia należy natychmiast opuścić takie pomieszczenie. Natomiast mówię Wam o tym po to, że to jest gaz, który jest bezpieczny dla sprzętu i bezpieczny dla człowieka w razie jakiejś, nie daj Boże, awarii. No dobra, a jak taki pożar jest w ogóle wykrywany? Tutaj są tak naprawdę dwa rodzaje czujników. Jeden czujnik jest laserowy, który bada de facto przejrzystość powietrza. Natomiast on działa jako system ostrzegawczy. On nie może wyzwolić alarmu. Drugi czujnik sprawdza zadymienie i temperaturę, czy jest podwyższona. I jeżeli dwie takie czujniki zgłoszą faktycznie alarm, że coś jest nie tak, to wtedy ten gaz jest wtłaczany do pomieszczenia. Możecie kojarzyć, że kiedyś była taka historia z jednej serwerowni, gdzie zdarzyło się, że ciśnienie było tak duże tego wtłaczonego gazu, że poszkadzało tam sprzęt. Żeby temu przeciwdziałać, w pomieszczeniach tutaj są takie specjalne klapy, no bo tak na logikę, gdy wtłaczamy inny gaz, tak, 300 barów, no to ten tlen przecież gdzieś musi uciec. No to po to są takie klapy. No i także, żeby zapobiegać hałasowi, który również może mieć czy to wpływ na człowieka, czy na sprzęt, to są mocowane takie specjalne tłumiki, które mają za zadanie ten hałas ograniczyć. No i słuchajcie, przechodzimy też do raju bardziej hardware'owego, więc jeżeli lubicie fajny, serwerowy, egzotyczny sprzęt, no to tutaj zobaczymy coś mniej typowego niż takie PeCety, które najczęściej składamy na kanale. No jak widzicie, jest tutaj całkiem sporo tych serwerów. Generalnie, jak sobie zdajecie sprawę, redundancja jest ważna, żeby mieć części na podmianę, to też jest ważne. Jak widzicie, tutaj mamy szereg dysków. Tutaj akurat mamy ciekawy dysk, on jest akurat na ten standard U3. W sumie na pierwszy rzut oka nawet niewiele różni się od takiego innego dysku Nasata i można by się było pomylić. Jak widzicie, mamy też tutaj szereg kart sieciowych, które są dostępne na podmiankę. No bo wiadomo, jeżeli klient wynajmuje sobie tutaj u Atma na jakiś serwer, to oni mają taką politykę, że do 4 godzin są w stanie ten serwer przywrócić do życia, więc po to też im jest tutaj dużo części na podmiankę, gdyby coś uległo awarii. No to szybko można podejść do półeczki, wziąć, wrzucić i działa. A tutaj na przykład na tych półeczkach mamy RAM. Dużo RAMu. Bardzo, bardzo, bardzo dużo RAMu. A zobacz, tu niespodzianka. Tu jest RAM. Tutaj też jest RAM. Tu, zaskoczę cię, też jest RAM. Myślę, że Premiere i Photoshop by się w końcu zmieściły, no. Mamy też oczywiście sekcję z procesorami. Tu mamy takie ładne pudełeczko z Iona Silver. Nigdy w życiu takiego nie widziałem na żywo pudełka, bo zawsze jakieś trejowe są. Tutaj jest jakiś model. Jaki to jest? 4208. Słuchajcie, ale tutaj do rąk dano mi nawet nie chcę myśleć, ile tysięcy złotych. To jest z Ion Platinum, czyli te najdroższe, jakie kiedykolwiek powstawały. To jest model 8362. Nie wiem, ile to kosztuje. Wrzucę Wam link w opisie. Jak macie psychę, to możecie sprawdzić, ale boję się zapytać, nie? I tutaj oczywiście mamy szereg różnych procesorów, które są jako te wolne sztuki na podmiankę, gdyby coś poszło nie tak. Jak ktoś z Was ostatnio oglądał filmik o Threadripperze, to możecie kojarzyć te ramki. To akurat nie są Threadrippery, tylko Epiki. I tutaj również parę tych procesorów na sokety od AMD jesteśmy w stanie znaleźć. No, a tutaj co? Western Digital, 12 TB. No, trochę tych dysków. No, może bym się zmieścił ze wszystkimi swoimi klipami. Komuś dysk chcecie? Żeby nikt mi potem nie powiedział, że robimy wycieczkę po datacenter, a Wyście serwera nie widzieli, jak w środku wygląda, to wybraliśmy dla Was fajnego rodzynka. Zobaczcie, to jest serwer, który ma dwie karty NVIDII. To są karty, które po prostu kosztują jakieś zaporowe ilości pieniędzy, które mają kosmiczne ilości VRAMu i tak dalej. Z ciekawych funkcji, które na przykład te karty wspierają, to jest wirtualne dzielenie karty graficznej. Czyli możecie sobie wziąć taką kartę graficzną, podzielić ją na kilka kawałeczków, na przykład na sześć i stworzyć sześć maszyn wirtualnych i każda z tych maszyn wirtualnych będzie miała potem kawałeczku karty graficznej. Coś, czego nie da się w prosty sposób zrobić na konsumenckich GeForce'ach, bo jest to niestety blokowane, a fajna funkcja by była. Są pewne obejścia, które gdzieś tam ludzie kombinują, ale jak ktoś faktycznie ma przedsiębiorstwo, to działa to w ten sposób, że inwestują sobie w taki gigantyczny serwer z takimi mocnymi kartami, robią sobie ileś maszyn wirtualnych, a de facto pracują sobie na takich terminalach, które po prostu zdalnie się łączą i obrabiają filmy, modelują coś w kadzie, czego dusza zapragnie. Wydajności nie braknie. Na temat reszty serwera nie będę się tutaj jakoś super rozwodził. To jest akurat platforma pod Epica. Jak widzimy, tutaj mamy jeden procesor zamontowany z takim chłodzeniem. Tutaj teoretycznie można by też zamontować drugi procesor, bo jest też na to socket, więc w takim uproszczeniu możemy pokazać jeden z fajniejszych serwerów. I to jest akurat serwer od Lenovo, więc proszę, nie tylko ThinkPady. No i wiecie, ogólnie tutaj jest też przeznaczone miejsce dla faktycznych osób, które zajmują się konserwacją tych serwerów na co dzień. Pracuje tutaj kilkadziesiąt osób, które się tym zajmują. Jak widzicie, sprzętu mają pod dostatkiem. No nie ukrywam, no, tak przyszedłbym na tydzień, może poskładać jakieś serwery albo coś. To tak, wiecie, troszeczkę inny doświadczenie ze składaniem desktopów, co nie? A właśnie, z tego co słyszałem, to Atman przyjmuje na praktyki, więc jak wiecie, jesteście w technikum gdzieś tu w Warszawie albo coś, to... Można do was maila napisać, jak ktoś chce na praktyki przyjść, nie? Dostałem kiwnięcie głową, więc jak chcecie przyjść na praktyki i poskładać serwery, to wiecie. No i słuchajcie, jesteśmy już na drugiej lokacji. Tutaj cały czas trwa budowa, stąd właśnie pancerz na mojej głowie i kamizelka od Blaskowa, ale udało nam się załatwić tak, że wejdziemy do środka i wytłumaczymy, jakie są różnice w tej lokacji, a także pokażemy wam skalę, bo skala w tym miejscu jest naprawdę o wiele, wiele większa. Chodźmy. To, jak widzicie, jest jedno z dwunastu pomieszczeń, w których będą niedługo już gościły serwery. I możecie zobaczyć, o ile większe jest to pomieszczenie od tego, które pokazałem wam wcześniej w tej innej lokalizacji. Więc można wywnioskować po tym, że jest zapotrzebowanie na tego typu usługi, że coraz więcej firm potrzebuje jakiejś przestrzeni hostingowej swojej. Ta przestrzeń też jest troszeczkę inaczej zaprojektowana, bo możecie też zobaczyć, że nie mamy tutaj w ogóle podłogi technicznej i jest rozwiązane w inny sposób. Jak sobie zobaczymy na ten sufit, tam jest o wiele większa przestrzeń niż w tej pierwszej lokacji. Przewody zasilające będą szły sobie od góry. I też, jak sami możecie zobaczyć, nie ma tych takich chłodnych korytarzy, które są w podłodze. I to będzie rozwiązane za pomocą tych maszyn, które stoją w rogach. Więc będzie to troszeczkę inaczej wyglądało niż w tamtej innej lokalizacji. Chcielibyśmy wam pokazać więcej, ale prawda jest taka, że nadal trwa tutaj budowa, skąd ten armor na mojej głowie. I prawda jest taka, że jak dobrze pójdzie, to szacują, że już w tym roku pierwsi klienci będą mogli się tutaj do tych przestrzeni wprowadzać. Także tempo pracy jest naprawdę bardzo szybkie. Jak widzicie, tutaj jest kolejna taka sala, która w ogóle nie jest wyposażona. I tak ciekawiło mnie, ile w ogóle kosztuje ten cały osprzęt. Okablowanie, chłodzenie i wszystkie te rzeczy, które są potrzebne, żeby w ogóle takie szafy z serwerami mógł tutaj wprowadzić. No i takiej powierzchni, jak tutaj mamy 500 m2, no to to jest koszt rzędu około 50 mln zł, może więcej. Więc przemnóżcie sobie to razy 12. No i robi się z tego całkiem ładny wózek pieniędzy, co nie? Więc nie jest to tania zabawa, zwłaszcza jeżeli chcemy mieć pod wysoki standard, żeby ściągać, wiadomo, klientów, którzy już prowadzą, można powiedzieć, globalną rozgrywkę, co nie? Przy okazji wyszliśmy sobie tutaj na balkon i chciałbym wam powiedzieć troszeczkę o tym, jak rozwiązane jest tutaj zasilanie i generatory, które podtrzymują moc, bo działa to w trochę inny sposób. Ten budynek, gdzie mamy taki tłumik, tam jest schowany generator. Te miejsca, które tutaj mamy, jak widzicie, to jest całe odpowiedzialne za zasilanie. Łącznie do budynku tutaj przychodzi 40 MW, natomiast realnie sprzedawane klientom jest około 14 i tutaj jeden taki site ma mniej więcej 2,4 MW. No i mamy też tutaj na dachu chłodzenie, dry coolery i tamte konstrukcje to są kolejne generatory, co możemy wnioskować po tłumikach. I to jest jeden taki moduł, który zasila jedną część budynku. Będzie tutaj jeszcze dodatkowo jeden po tej stronie i dwa z drugiej strony, więc łącznie są cztery na cały budynek. Jeszcze jeden taki twist, którego się w sumie trochę nie spodziewałem, bo widzieliście już wcześniej na przebitkach z drona, jak ten budynek wygląda i ja mówię, kurde, no rzeczywiście jest sporo większy niż to, co widzieliśmy wcześniej. Robi to wrażenie. I teraz pokażę Wam jedną rzecz. Widzicie tą działkę tam, gdzie te samochodziki sobie śmigają i tu, gdzie stoją te ciężarówki i koparki? No to cały ten teren, właśnie aż do tej ulicy, jest własnością Atmana i w planach jest to, żeby powstały jeszcze dwa takie budynki. A ten jest jednym z trzech, które docelowo mają tutaj być, więc... no mają rozmach. Taka to więc wycieczka. Ja się naprawdę mega jaram, że miałem okazję to zobaczyć no i mam nadzieję, że Wy też dużo lepiej rozumiecie, że datacenter to nie są po prostu serwery powrzucane do szafy raki, upchnięte w jakimś tam pokoiku, tylko to jest cały organizm, cała infrastruktura. Chłodzenie, systemy gaszenia, systemy zasilania to jest jeden wielki organizm, który musi działać idealnie jak szwajcarski zegarek. Ja się również cieszę, że firma Atman postanowiła nas tutaj zaprosić, że nas tutaj ugościli, oprowadzili i opowiedzieli nam te wszystkie ciekawostki, którymi ja z kolei mogę podzielić się z Wami. Mam nadzieję, że taki materiał Wam się podobał i do zobaczenia w kolejnych filmach. Na razie. Bajos!