Archiwum kategorii energia

Dziesięciolatek postawił serwer Minecrafta na Edisonie

Dostałem do testów dość niecodzienne urządzenie – układ Intel Edison razem z płytką Arduino, umożliwiającą zaprogramowanie tego miniaturowego komputera.
Intel Edison na płytce Arduino

Edison zawiera normalny dwurdzeniowy procesor x86, a zatem można na nim uruchomić nieco okrojoną dystrybucję Linuksa dla x86. Po przygotowaniu obrazu i wgraniu go na urządzenie uruchomiłem na Edisonie dystrybucję Ubilinux bazującą na Debianie.

instalacja

Zainstalowałem JRE: openjdk-7-jre (ze względu na brak miejsca na głównym systemie plików pakiet openjdk-7-jre trzeba instalować bez zależności za pomocą apt-get download a potem dpkg --force-all -i ).

Dlaczego akurat Java?

Dałem ten moduł do testów dziesięciolatkowi, który (jak wiele dzieci w podobnym wieku) jest od kilku lat zafascynowany Minecraftem (za tę grę Microsoft zapłacił 2,5 mld dolarów).

Po kilku podejściach, młody pasjonat komputerów zalogował się do Edisona przez SSH (!), wrzucił pliki serwera na odpowiedni zasób, użył edytora vi (!!) do edycji plików konfiguracyjnych, a następnie uruchomił serwer.

Tak, serwer Minecrafta działa na Edisonie, obsługuje około 19 ticków na sekundę, zajmuje jedną trzecią RAM. Całkiem nieźle jak na procesor, który pobiera nieco ponad wat energii elektrycznej (pomiary pokazały około 990mW).

top

Kto by przypuszczał, że dziesięciolatek potrafi uruchomić serwer Minecrafta na tak małym urządzeniu?

Wybuch

Jedną z ciekawszych gałęzi nauki, w której zwraca się uwagę na bezpieczeństwo jest chemia. Przy pracy z niektórymi substancjami naukowcy zachowują ekstremalne wręcz środki bezpieczeństwa, a eksplozje lub inne podobne zdarzenia nadal mają miejsce. W odróżnieniu od informatyki, przy doświadczeniach chemicznych środowiska nie można „wyłączyć” a przy planowaniu bierze się także pod uwagę demontaż, czyli bezpieczne pozbycie się tych substancji, które nie są już potrzebne. Do tego skutki fizyczne awarii są o wiele gorsze niż przy zwykłym włamaniu na serwer.
Więcej »

Hydrofobia w datacenter

Niestety mimo postępów techniki, nadal budowniczy centrów przetwarzania danych mają opory przed doprowadzaniem cieczy do pomieszczenia datacenter. W ankiecie przeprowadzonej przez Uptime Institute zaledwie 11% operatorów datacenter korzysta z chłodzenia wodnego. Wynika to także stąd, że chociaż dzisiejsze serwery kasetowe mogą dysponować gęstością mocy nawet rzędu 30kW na szafę (i więcej!), operatorzy rzadko pracują przy takiej gęstości upakowania serwerów (a zatem doprowadzonej mocy). Zazwyczaj wystarcza im 5-7 kW na szafę, a z taką gęstością radzą sobie bez problemu typowe systemy chłodzenia powietrzem z chłodnymi i gorącymi korytarzami. Być może jednak w niedalekiej przyszłości konkurencja między dostawcami chmury obliczeniowej sprawi, że ciecz chłodząca stanie się standardem – jest po prostu bardzo sprawna i umożliwia odprowadzenie mocy rzędu kilkudziesięciu kilowatów z pojedynczej szafy.

Woda chłodzi lepiej
Chłodzenie wodne nie oznacza jednak za każdym razem tego samego rozwiązania i podejścia. Obecnie woda lodowa z powodzeniem służy do chłodzenia powietrza za pomocą wymienników w pomieszczeniu, w rzędach szaf, a nawet nad nimi. Nadal jednak między mikroprocesorem a cieczą występuje bariera powietrza. Prawdziwy przełom sprawią dopiero projekty, w których woda lodowa zostanie doprowadzona wprost do chłodzenia układów scalonych i innych komponentów. Można to osiągnąć za pomocą odpowiednio przygotowanych płytek i rurek albo przez zanurzenie elementów w odpowiedniej cieczy. Pierwsze takie systemy już się pojawiają.

Wodne chłodzenie kontaktowe
Przykładem firmy, która wprowadza systemy chłodzenia cieczą z bezpośrednim kontaktem wymiennika ciepła z cieczą (bez konieczności używania radiatorów i wentylatorów) jest Cool IT Systems. Sektorem, w którym odnotowuje największy wzrost sprzedaży, są komputery dedykowane do wyliczania wirtualnej waluty bitcoin, korzystające ze specjalnych procesorów ASIC, które generują dużo ciepła w niewielkiej objętości.
system chlodzenia wodnego Cool IT systems
W ten sposób można chłodzić także GPU, za pomocą systemów kontaktowych:
chlodzenie gpu

Inną firmą promującą chłodzenie cieczą jest Asetek. Jest ona partnerem firmy Cray i opracowuje rozwiązania także na potrzeby sektora obronnego w USA. Na zdjęciu poniżej znajduje się serwer kasetowy z systemem chłodzenia firmy Asetek.
Serwer kasetowy z chlodzeniem Asetek

Do wanny z płynem
Chłodzenie przez zanurzenie w cieczy opanowuje firma Green Revolution Cooling, która tę technologię wprowadza do najsprawniejszego energetycznie superkomputera na świecie – Tsubame-KFC. Technologia tej firmy służy do chłodzenia komputerów o mocy liczonej w megawatach, w tym na przykład aplikację obrazowania sejsmicznego w CGG w Houston. Inne podejście, określane jako zanurzenie w otwartej kąpieli prezentuje firma 3M, która tę technologię monetyzuje w sektorze obliczeń elektronicznej waluty, takiej jak bitcoin. Wykorzystywany przy tym płyn Novec chłodzi instalacje o wysokiej gęstości przeznaczone do obliczeń bitcoinów w Hong-Kongu, moc sięga 100kW per rack.
chlodzenie zanurzeniowe

Daje się tu zauważyć pewna prawidłowość – rozwiązania zanurzeniowe wykorzystuje się w nowych inwestycjach, a kontaktowe – w istniejących centrach.

Procesory, dyski…
Obecnie sprzedawane procesory Intela (szczególnie te najmocniejsze, które wydzielają sporo ciepła) z powodzeniem mogą być chłodzone cieczą – rozwiązania do kontaktowego chłodzenia procesorów z serii Xeon są dostępne na rynku i z powodzeniem sprawdzają się w środowiskach serwerowych, chociaż jest to nadal produkt niszowy. Z kolei w środowisku overclockerów (specjalistów zajmujących się pozyskiwaniem większych mocy obliczeniowych niż przewidział to producent dzięki podwyższaniu częstotliwości taktowania zegara) chłodzenie wodne jest bardzo popularne.
Osobnym problemem są dyski mechaniczne i półprzewodnikowe, gdyż w odróżnieniu od procesorów rzadko są projektowane pod kątem chłodzenia z pojedynczego obszaru obudowy. Prawdziwa rewolucja jest jeszcze przed nami.

Czy czeka nas chłodzenie cieczą?

Odprowadzanie ciepła za pomocą cieczy chłodzącej jest powszechnie stosowane w przemyśle, energetyce czy motoryzacji. Ma wiele zalet, między innymi umożliwia szybkie odprowadzenie dużych ilości energii cieplnej ze stosunkowo małej powierzchni urządzeń. Inżynierowie projektujący komputery nadal jednak wybierają chłodzenie powietrzem – poza niektórymi niszami. Taką niszą są specjalne zestawy do overclockingu, a także komputery o dużej mocy obliczeniowej. Wzrost zapotrzebowania na moc obliczeniową do celów badań naukowych, chmury i przetwarzania dużych zasobów danych sprawia, że powstają komputery, które połączą dużą wydajność procesorów z niewielką objętością. A to oznacza wytwarzanie znacznej ilości ciepła w małym urządzeniu – odpowiedzią na potrzeby zakresie chłodzenia może być użycie cieczy chłodzącej. Na to wskazują między innymi raporty takie jak 451 Group – chłodzenie wodne powraca, także poza maszynami eksperymentalnymi dla celów naukowych.
Paul Arts, CTO firmy Eurotech mówi: „W świecie komputerów dużej mocy, wszystko będzie chłodzone cieczą. Uważamy, że jest to jedyny sposób, by uzyskać potrzebną skalę. To jest dopiero początek rewolucji, powstaną nowe komputery dużej mocy, dysponujące nadzwyczajnymi możliwościami”.
Należy przy tym pamiętać, że problemy nie dotyczą samej technologii, gdyż jest ona dopracowana od lat w rozwiązaniach przemysłowych. Wprowadzenie chłodzenia wodnego w datacenter wymaga nieco większych inwestycji, gdyż obecne centra przetwarzania danych są dostosowane do odprowadzania ciepła wydzielanego przez maszyny w formie gorącego powietrza. Należy zatem albo wprowadzić kolejny wymiennik ciepła (być może w urządzeniu lub szafie), albo dostosować istniejącą infrastrukturę. Będzie to jednak niezbędne w miarę wzrostu mocy obliczeniowej.
Na konferencji SC14 w Nowym Orleanie podczas dyskusji panelowej Nicolas Dube, specjalista do spraw technologii datacenter w firmie HP powiedział: „W roku 2020 gęstość i ilość wydzielanego ciepła będzie tak duża, że będziemy musieli korzystać z chłodzenia cieczą. Musimy tę technologię wdrażać już teraz”.
Jest to korzystne już teraz, choćby dlatego, że przy chłodzeniu cieczą procesor pracuje przy niższym obciążeniu termicznym i ogólnie w lepszych warunkach. Michael Patterson, architekt zajmujący się zagadnieniami energii i ciepła w firmie Intel wyjaśnia: „W niemal każdej konstrukcji chłodzenia cieczą procesor pracuje przy niższej temperaturze i charakteryzuje się większą niezawodnością. Przy takiej metodzie chłodzenia zawsze będą mniejsze fluktuacje temperatury, niż przy chłodzeniu powietrzem. To przekłada się na niezawodność”.

Mały komputerek

W ramach odpoczynku od spraw konferencyjnych postanowiłem przetestować coś, co od dawna czekało na zastosowanie – jeden z najmniejszych komputerów w ogóle. Mowa o Raspberry Pi, malutkim komputerze wielkości karty kredytowej, potrzebującym zaledwie 3,5W (zmierzone użycie energii to 710mA ze źródła 5V przy myszce podłączonej do portu USB i aktywnym połączeniu internetowym).

Czy zawsze potrzebujemy najwyższej wydajności, wielu gigaflopsów?

Do niektórych zadań z powodzeniem wystarczy niewielki procesor w sprawnej energetycznie technologii ARM.
Mam dalsze plany związane z tym komputerkiem, gdyż wbrew pozorom oba procesory malinki (CPU i GPU) mają całkiem niezłą wydajność, z grubsza Raspberry Pi odpowiada konsoli Xbox z 2001r. Bez problemu radzi sobie z obsługą radia internetowego, u mnie będzie to jego główne zastosowanie. Muszę jeszcze dokupić przejściówkę z HDMI na VGA, zrobić ładną obudowę, przebudować używany zasilacz (by nie produkował zakłóceń), a także dostosować nowe ustawienia bezpieczeństwa na domowym firewallu.

Raspberry Pi

Najwięcej problemów miałem z uruchomieniem samej dystrybucji Raspbmc, gdyż po restarcie malinki system nie chciał się uruchomić. Pomogło dopiero nagranie na kartę kompletnego obrazu dystrybucji za pomocą narzędzia ImageWriter. Po restarcie oprogramowanie automatycznie zainstalowało łatę na openssl (mowa o bardzo istotnej podatności). Ustawiłem wyjście audio, wideo, zainstalowałem wtyczkę do obsługi radia internetowego – wszystko za pomocą myszki – a potem włączyłem jedną z moich ulubionych stacji radiowych.
W ten sposób mogę słuchać radia przez Internet bez uruchamiania komputera.
Malinka działa
Komputerek rok temu dostarczyła firma Farnell Element14, niestety ze względów osobistych białe pudełko musiało poczekać na to, aż będę miał wolny weekend. Już dochodzę do zdrowia i powoli wracam do zadań.
Właśnie gra mi Metallica, Nothing Else Matters z radia RAM FM.

Następca Nokii E72

Prawie trzy lata temu zastanawiałem się nad nową platformą, która mogłaby zastąpić zabitego przez Nokię Symbiana. Rozważałem BlackBerry, a także nowoczesne smartfony z systemem Android, ale wszystkie dzisiejsze dotykowe telefony miały jedną istotną wadę – krótki czas pracy na jednym ładowaniu akumulatora. Jeden dzień to jest zdecydowanie za mało. Posiadacze iPhone’ów narzekali na to, że ich smartfon nie przetrwał nawet jednego dnia, rekord pobił iPhone redaktora naczelnego – błąd w oprogramowaniu firmy Apple sprawił, że czas pracy nie przekraczał czterech godzin. Samsungi Galaxy były tylko trochę lepsze, bo i tak trzeba było je ładować codziennie.

Wszystko wskazuje na to, że znalazłem telefon, który może godnie zastąpić Nokię E72.

Oto dowód:
bateria Krueger&Matz Drive
Producent zastosował bardzo rozsądne podejście. Skoro nie można sprawić, by smartfon pobierał mniej energii, to trzeba go wyposażyć w akumulator o właściwej pojemności. Tutaj zastosowano aż 4000mAh. Żaden z testowanych przeze mnie uprzednio smartfonów nie mógł się pochwalić takim czasem działania!

Warunki testów oddawały rzeczywiste wykorzystanie – jedna karta, sieć 2G, normalne wykorzystywanie telefonu, w tym synchronizacja trzech kont pocztowych, komunikator internetowy i przeglądarka, słuchanie muzyki na słuchawkach. Jak widać na wykresie, w ciągu trzech dni nie ładowałem telefonu ani przez chwilę.

Dlaczego nie ma tagu „technologia importowana”? Bo smartfon ten powstał dla polskiej firmy.

Energia w firmach

Nie zabrakło również stoisk firm, które zajmują się dystrybucją energii elektrycznej i zapewnieniem gwarantowanego zasilania. Oprócz dużych stoisk, były także mniejsze, w tym te zlokalizowane w zamkniętej części dla resellerów – Reseller Planet.

DSCF7786

DSCF7787

DSCF7788

DSCF7789

Kompatybilność w każdym zakresie

Problemy ze zgodnością sprzętu i oprogramowania są powszechnie znane, integratorzy borykają się nieraz z kłopotami na styku różnych urządzeń. Problemy dotyczą protokołów, detali komunikacji czy różnych opcji. Znacznie rzadziej wspomina się o zgodności elektrycznej – ten problem wydaje się rozwiązany już dawno i teoretycznie wystarczy porównać wymagania. Niestety nie zawsze tak jest, doświadczyłem tego osobiście.
Na jedną z konferencji w USA wziąłem ze sobą radiostację amatorską, na mocy polskiej licencji mogę nadawać w różnych krajach (w większości w Unii Europejskiej, ale nie tylko), w tym także w Kanadzie i USA. Niestety zasilacz, który świetnie pracuje przy napięciu 230V, odmówił współpracy przy zasilaniu 120V, mimo że posiada specjalny przełącznik na 100-120V. Nie jest to prosty kieszonkowy zasilacz impulsowy, ale spore solidne urządzenie, które ma dostarczyć prądu o natężeniu 20A przy 12V, bo tyle pobiera nadajnik przy pełnej mocy. Niestety nie mogłem sprawdzić zasilacza przełączonego na 120V w Polsce, gdyż nie mam urządzenia, które dostarczyłoby napięcia 120V 60Hz, takiego, jak jest w USA. Nie przyszło mi nawet do głowy, że profesjonalny zasilacz, rzekomo dostosowany do pracy przy takim zasilaniu (jest informacja na tabliczce znamionowej, jest odpowiedni przełącznik), nie będzie działał.
Dlaczego o tym piszę?
Bo zasilacz, z którego korzystam, jest typowy, pochodzi z jednego z serwerów poważnego producenta. Oznacza to, że podobne zdarzenia mogą mieć miejsce przy prezentacjach polskich rozwiązań w krajach takich jak USA czy Japonia. Co zrobi polska firma, gdy po drugiej stronie Atlantyku, po przełączeniu urządzenia na zasilanie 110-120V okaże się, że nic nie startuje? Tutaj nie pomoże żadna prosta przejściówka do wtyczki.
Przejściówka US-EU
W porównaniu do wydania łaty w oprogramowaniu, usuwanie niekompatybilności sprzętowych jest trudniejsze.
Nauczka na przyszłość – wszystkie kombinacje należy sprawdzić w testowym środowisku, będącym dokładnym odwzorowaniem środowiska produkcyjnego. Włącznie z zasilaniem i chłodzeniem.

Wszystkiemu winne sterowniki

Gdy występuje załamanie systemu operacyjnego, zwykły użytkownik zazwyczaj winą obarcza producenta tego systemu. W większości przypadków wina leży jednak gdzie indziej. Gdy testowałem kartę Firewire Solo, dość często występował błąd STOP systemu Windows 7. Podobnie zachowywało się Windows XP z jedną z kart bezprzewodowych, a także po podłączeniu instrumentu muzycznego za pomocą interfejsu MIDI USB.
Krótkie sprawdzenie przyczyny udowodniło, że winny oczywiście nie jest Microsoft ale dziurawy jak sito sterownik do karty.
To samo dotyczyło Linuksa Ubuntu 10.10, gdy zainstalowałem ten system na jednym z badanych laptopów i stroiłem pod kątem maksymalnego czasu pracy na baterii. Uruchomienie aplikacji powertop z uprawnieniami UID 0 powodowało za każdym razem załamanie systemu (kernel panic, odpowiednik błędu STOP w systemie Windows). Krótkie dochodzenie wskazało winnego – był nim zamknięty sterownik do karty bezprzewodowej. Podobnie, jak w Windows 7, był to element dostarczony z zewnątrz i producent OS nie miał wpływu na jego kod, ani stabilność.
Między innymi z tych powodów administratorzy są bardzo sceptyczni przy instalacji sterowników dostarczonych przez firmy trzecie. W środowisku korporacyjnym liczy się ciągłość działania, zatem błędy STOP/kernel panic po prostu nie powinny się zdarzać. Dlatego producenci serwerów certyfikują swoje produkty, by prawdopodobieństwo załamań systemu było możliwie niskie. Między innymi po to płaci się za usługi wsparcia technicznego. Biznesowy system operacyjny (obojętne, czy jest to Windows, Linux czy Solaris) pracujący na sprawnym i certyfikowanym sprzęcie, będzie działać stabilnie.

Ważne I/O, także w netbookach

Od dawna wiadomo, że podsystem wejścia/wyjścia ma istotne znaczenie dla wydajności aplikacji. Dotyczy to także netbooków, które zazwyczaj są wyposażane w wolniejsze dyski mechaniczne 5200rpm. Ponieważ oryginalny dysk w moim MSI już zaczął zgłaszać do systemu problemy, zdecydowałem się na wymianę. Zasugerowany kilkoma komentarzami i opiniami założyłem hybrydowy dysk Momentus XT 320G 7200rpm, który posiada pamięć SSD o pojemności 4GB. To był strzał w 10, bo niektóre aplikacje niesamowicie przyspieszyły, przykładem może być klient pocztowy Evolution, w którym posiadam ponad 20GB wiadomości e-mail.
Jak działa bufor SSD w praktyce?
Oto pierwszy test wydajności.

Drugi test, chwilę później, wygląda tak.

Widać wyraźnie, że moduł SSD znacząco skraca czas dostępu (z 16,4 ms do 4,3 ms) do dysku, dzięki czemu wielokrotnie powtarzane operacje odczytu są bardzo przyspieszone. Jest to dysk 7200 rpm SATA, więc przy tej platformie maksymalny transfer rzędu 100MB/s a średni około 80MB/s jest rozsądnym wynikiem.
Trzeci test pokazuje jeszcze większe skrócenie czasu dostępu, do 0,5ms:

Zwolnienie transferu w okolicach 40% testy wynika z aktywności innych aplikacji (Google Desktop).

Jedynym istotnym minusem nowego dysku jest większe zużycie energii przy pełnym obciążeniu niż przy starym i wolnym 5200rpm. Czas pracy na bateriach testowany wczoraj wieczorem skrócił się z 7h do 5,5h, ale być może jedną z przyczyn jest nadal pracujący proces indeksowania zawartości moich dokumentów. Obecnie powertop pokazuje:
Po raz pierwszy od 5 lat przeinstalowałem system (dotąd robiłem tylko aktualizacje, przenosząc instalację na kolejne komputery), by wyniki testów wydajności były wiarygodne. Minusem jest nieco większa wibracja, zresztą użytkownicy również zwracali na to uwagę.
Jeśli pracujesz na Windows 7 lub przy Linuksie, polecam dysk hybrydowy, gdyż różnica wydajności jest odczuwalna od razu, a po dostrojeniu systemowej pamięci cache, wyniki są jeszcze lepsze.
Platforma testowa – netbook MSI Wind U100, 2GB RAM, system operacyjny Ubuntu 10.10 (Maverick Meerkat).
Dla porównania test wydajności przy starym dysku, oryginalnym instalowanym w tym netbooku.