polski english

tel:+48 71 716 41 44
fax: +48 71 716 51 66
e-mail: madu@madu.pl

ZAAWANSOWANE ROZWIĄZANIA DLA TWOJEJ ARCHITEKTURY IT

Projektujemy i dostarczamy
architekturę serwerową...

...z uwzględnieniem
wszystkich wymagań
technicznych
i biznesowych

NASZA OFERTA


Cechy optymalnej infrastruktury:
zwiększona moc obliczeniowa

W niektórych dziedzinach biznesu moc obliczeniowa ma znaczenie strategiczne i zależy od niej wydajność i opłacalność całego przedsięwzięcia.

www.plgrid.pl www.eu-egee.org

Istnieje obecnie kilka różnych sposobów na zwiększenie mocy obliczeniowej i są one wybierane w zależności od specyfiki danej branży lub instytucji. Inaczej radzą sobie małej wielkości przedsiębiorstwa, inaczej placówki naukowe a jeszcze inne są wymagania np. korporacji. Wskutek rozwoju technologii, intensywnego marketingu oraz ogromnego zapotrzebowania na wydajne infrastruktury IT ze strony dynamicznie rozwijającego się biznesu powstało wiele konkurencyjnych rozwiązań dla zwiększenia mocy obliczeniowej. Toczy się wokół nich mnóstwo mniej lub bardziej merytorycznych i koncepcyjnych dyskusji, które raz traktują np. cloud computing oraz wirtualizację jako współczesną rewolucję w świecie IT, innym razem jako przejściowe i wciąż niedoskonałe rozwiązania.

Z tego właśnie powodu sporo osób jest nieco zdezorientowanych. Nie wiedzą jaki model wybrać dla siebie, czy zainwestować w teoretycznie dobrze rokujące, innowacyjne rozwiązania, czy też pozostać przy klasycznych, już sprawdzonych rozwiązaniach.

Ze względu na niezwykle zróżnicowane potrzeby naszych Klientów (od mikroprzedsiebiorstw po korporacje, poprzez banki, urzędy i placówki naukowe) przedstawiamy poniżej krótką charakterystykę każdego z tych modeli: grid, cloud oraz posiadania własnej, np. zwirtualizowanej infrastruktury, pod kątem dopasowania i zwiększenia mocy obliczeniowej.

Grid computing
Grid to heterogeniczny system połączonych zasobów sprzętowych, w którym za pomocą specjalnego interfejsu użytkownik może z nich korzystać - jest nowoczesnym systemem przetwarzania rozproszonego. Grid computing to sposób przetwarzania danych w sferze współdzielonych zasobów, wymagający ich specjalnej alokacji na żądanie hosta. Grid computing pozwala na traktowanie wszystkich zasobów sprzętowych jako jeden wirtualny superkomputer. Dzieki temu w łatwy sposób uzyskujemy możliwość zautomatyzowanego równoważenia obciążenia poszczególnych maszyn, a co za tym idzie zwiększamy wydajność naszej infrastruktury IT, maksymalizując wykorzystanie zasobów.

Model grid jest heterogeniczny m.in. pod względem:

- sprzętu (może składać się z superkomputerów, jak i zwykłych komputerów PC normalnych użytkowników, a także innych urządzeń lub zasobów)
- programów
- lokalizacji (zasoby są rozproszone geograficznie, istnieją gridy lokalne lub globalne)
- polityki (dostępności, bezpieczeństwa itd.)
- struktury
- właścicieli (mogą go współposiadać różne organizacje, czasem nie istnieje żadna centralna organizacja, a jest on współposiadany przez tworzących go użytkowników)


Zwiększone zapotrzebowanie na moc obliczeniową najlepiej widać na przykładzie placówek naukowych, zwłaszcza tych prowadzących badania w dziedzinie fizyki, geologii czy biomedycyny. Istniejącą od wielu lat silną tendencją jest łączenie mocy wielu rozproszonych serwerów w jedną sieć, czyli grid. W Polsce istnieje już tego typu bezpłatna i otwarta infrastruktura –projekt PL-Grid, który wspiera naukowców w ich badaniach, dając możliwość korzystania z połączonej mocy ponad 200 TFLOPS. Modele Grid są zwykle dedykowane konkretnym przedsięwzięciom połączonym wspólnym celem lub ograniczeniami prawnymi – powstają więc gridy publiczne, prywatne, lokalne, globalne. Najbardziej zaawansowane badania nad modelem grid prowadzone są w ośrodku badawczym CERN, a dokładniej w projekcie Enabling Grids for E-sciencE (EGEE). Firmy takie jak Intel, HP, IBM testują tam swoje najnowsze technologie.

Cloud computing
Model Cloud wyrósł tak naprawdę na bazie modelu grid i ewoluował do formy współczesnej bazując głównie na wykorzystaniu technologii wirtualizacji oraz dostosowaniu usług do współczesnych wymagań ekonomicznych. To właśnie komercyjność i marketingowe podejście do cloud computing uczyniły ten model standardową usługą dla biznesu funkcjonującą w trojakiej postaci:

- Infrastructure as a Service (IaaS) – infrastruktura jako usługa
- Platform as a Service (PaaS) –platforma dla developerów, odpowiednie środowisko dla tworzenia aplikacji
- Software as a Service (SaaS) – oprogramowanie jako usługa.

Cechy wspólne Grid i Cloud computingu
Sama definicja chmury jest obecnie często kwestionowana. Z jednej strony bowiem model grid i cloud posiadają dużo wspólnych cech. Obydwa modele są skalowalne. Osiąga się to poprzez balansowanie obciążeniem instancji aplikacji, które uruchamiane są osobno na różnych systemach operacyjnych i połączone są we wspólną sieć zasobów. Moc obliczeniowa i przepustowość przydzielane są na żądanie, w zależności od zapotrzebowania i ustalonych procedur. Wydajność pamięciowa systemu spada i wzrasta w zależności od ilości użytkowników, instancji oraz ilości transferowanych danych w określonym czasie. Obydwa modele obliczeniowe polegają na współdzieleniu zasobów i wielozadaniowości, co oznacza po prostu, że wielu użytkowników może w tym samym czasie wykonywać różne zadania i mieć dostęp do jednej lub wielu instancji, korzystając z dużo większego zasobu sprzętowego niż posiadają fizycznie.

Różnice między grid a cloud computingiem
Według niektórych opinii najbardziej znaczącą różnicą między modelem grid i cloud jest wirtualizacja, która jest podstawą wydajności i skalowalności chmury.

Jeśli chodzi o efektywność składowania danych, to model cloud jest znacznie bardziej elastyczny, bo uwzględnia dane o wielkości od jednego bajta do kilku terabajtów. Model grid nie jest raczej ekonomicznie dopasowany do przechowywania takich wielkości jak 1 bajt. Największe korzyści ekonomiczne osiąga on przy składowaniu naprawdę dużych ilości danych, dlatego też zwykle jest on wykorzystywany przez instytucje badawcze i naukowe, a nie przez pojedynczych komercyjnych klientów. W modelu Grid występuje środowisko heterogeniczne co oznacza że działa na wielu platformach sprzętowych, od serwerów mainframe Z aż po zwykle komputery biurkowe. Natomiast środowisko cloud wymaga tej samej platformy sprzętowej (czyli typu procesora - x86, etc.) od strony dostawcy usługi.

Jedna z głównych różnic polega również na alokacji połączonych zasobów. W modelu grid alokowanie odbywa się z użyciem kolejkowania i są do tego potrzebne specjalne algorytmy dotyczące harmonogramowania żądań. Kilka dużych żądań może nie zostać obsłużonych jednocześnie – niektórzy użytkownicy muszą oczekiwać, aż zwolnią się zasoby sprzętowe. W przypadku cloud computingu istnieje wiele małych żądań. Alokacje odbywają się w czasie rzeczywistym. Jest to bardziej elastyczny i skalowalny model współdzielenia zasobów.

Czy model cloud wyprze potrzebę i chęć posiadania własnej infrastruktury?
Naszym zdaniem w pełni nie nastąpi to nigdy.

Z pewnością wiele, zarówno małych firm, jak i niektórych typów korporacji, w coraz większym stopniu będzie korzystało z modelu cloud, jednak głównie ze względów bezpieczeństwa najbardziej strategicznych zasobów, chmura nigdy nie zastąpi posiadania własnej infrastruktury. Być może idealnym rozwiązaniem i powszechnym status quo stanie się model hybrydowy, w którym w infrastrukturze wewnętrznej umieszczane i przetwarzane są wszystkie strategiczne dane (te związane z ochroną danych osobowych, innowacyjnymi pomysłami, planami rozwoju etc.), natomiast zewnętrznie przetwarzane są dane o mniejszym stopniu ważności.

Można pomyśleć, że IBM, który również uruchomił usługę przetwarzania w chmurze, a który jest przecież zarazem czołowym producentem infrastruktury IT na świecie, będzie odbierał sobie zyski generowane z jej produkcji i sprzedaży. Nic takiego jednak nie powinno mieć miejsca, bo jak wynika z prognoz IDC „Istnieje wciąż utrzymująca się obawa na temat takich kwestii jak integracja, dostępność, bezpieczeństwo i koszty. Te troski oraz to w jaki sposób odnoszą się do nich vendorzy, będą w ciągu kilku następnych lat wyznaczały przyjęcie się cloud computing.” (Katharine Broderick, research analyst; źródło: http://www.idc.com/about/viewpressrelease.jsp?containerId=prUS22440510). Według IDC przewagę nad publicznymi zyskają chmury prywatne, a przychód ze sprzedaży serwerów wygenerowany tym trendem podwoi się w ciągu 5 lat (2009-2014). Większy wzrost zysków jest przewidywany dla SaaS, mniejszy zaś dla IaaS, a więc liczbę migracji do modelu cloud będzie cechowała ostrożność i stopniowe badanie rentowności poszczególnych usług.

Polska jest jednym z trzech krajów na świecie, które Microsoft traktuje priorytetowo, jeśli chodzi o rozwój usług związanych z cloud computingiem. Dyrektor generalny polskiego oddziału Microsoft Jacek Murawski wydaje się być jednak realistą i jakkolwiek jest przychylny rozwojowi cloud computingu, stara się póki co prowadzić „politykę równości”, której wyznacznikiem jest przede wszystkim zdroworozsądkowe myślenie – w wielu wypadkach model tradycyjnej architektury jest bardziej korzystny i lepiej dopasowany do potrzeb. (http://www.computerworld.pl/news/361828/Koniec.oprogramowania.jakie.znamy.html).

Jeśli chodzi o relacje między modelem grid i cloud, to według raportu EGEE z 30 maja 2008 roku podstawowe pytanie nie brzmi raczej czy model Cloud zdezaktualizuje grid, lecz w jaki sposób użytkownicy mogą wykorzystać model Cloud do zwiększenia efektywności wykorzystania modelu grid (https://edms.cern.ch/file/925013/3/EGEE-Grid-Cloud.pdf).

Należy zatem pamiętać, iż niezależność i pełne bezpieczeństwo wrażliwych danych i sprzętu może zapewnić jedynie własna serwerownia, niestety jednak nie wszystkie przedsiębiorstwa na takie rozwiązanie mogą sobie pozwolić. Ciągłość pracy i zmniejszona awaryjność mogą przemawiać natomiast na korzyść chmury a nie własnej serwerowni.

Moc obliczeniowa w środowisku wirtualnym
Wiele firm poszukuje mocy obliczeniowej w środowiskach wirtualnych. Dzięki wirtualizacji wszystkie fizycznie rozproszone zasoby zostają skonsolidowane w jedną pulę. To właśnie alokacja zasobów i ich dynamiczne przydzielanie zwiększa efektywność pracy.

Z pewnością wybierając serwer dla środowiska wirtualnego, warto zwrócić uwagę na to, jakie posiada on zasoby fizyczne, jakie posiada możliwości rozbudowy oraz jaka jest specyfika wirtualizowanego środowiska – chodzi tu o stosunek ilościowy maszyn wirtualnych do fizycznych oraz o przeznaczenie infrastruktury. Wybierając liczbę rdzeni procesora musimy znać rodzaj obsługiwanych aplikacji oraz uwzględnić dodatkową moc dla np. oprogramowania zabezpieczającego, czy migracji maszyn wirtualnych na inne serwery fizyczne.

Warto zbadać ile dokładnie mocy obliczeniowej zużywają poszczególne aplikacje, ile zużywają pamięci RAM, w jaki sposób i kiedy obciążają sieć oraz jakie są jej wymagania co do przestrzeni dyskowej. W przypadku wirtualizacji serwerów należy pamiętać o tym, aby procesory były zgodne i jak najbardziej zbliżone parametrami w fizycznych serwerach. Wielu producentów umożliwia migracje lub przenoszenie w maszyn w klastrze HA, ale tylko dla tej samej serii np. Xeon lub Opteron, w innym przypadku zmniejsza się wydajność maszyn, ponieważ włącza się tryb zgodności i wyłącza zaawansowane funkcje procesora.

Zarządzanie mocą obliczeniową serwerów.
Oprogramowanie wirtualizacyjne np VMware pozwala efektywnie zarządzać mocą obliczeniową serwerów. W pakiecie VMware Virtual Center istnieje dostępna technologia VMware DRS (Distributed Resource Scheduler), która alokuje i równoważy moc obliczeniową w środowisku wirtualnym. Oprogramowanie monitoruje wykorzystanie zasobów i inteligentnie przydziela dostępne z nich pomiędzy wirtualne maszyny, w zależności od potrzeb. VMware DRS łatwo przydziela nową moc korzystając z mocy wirtualnych serwerów dodanych do puli poprzez redystrybucję wirtualnych maszyn, bez zakłócania pracy całego systemu.

Serwery IBM „do zadań specjalnych” z technologią Hyper-Threading
Na moc obliczeniową serwera ma wpływ m.in. procesor, pamięć oraz przepustowość I/O. Nowa seria serwerów IBM X5 została zaprojektowana z myślą o wykonywaniu zadań wymagających dużej mocy obliczeniowej - słowem zadań specjalnych. Trzy serwery rackowe IBM System x3850 X5, x3950 X5, x3690 X5 oraz BladeCenter HX5P posiadają procesory z technologią Hyper-Threading, która umożliwia przypisanie do jednego fizycznego procesora dwóch logicznych i równoczesne wykonywanie operacji. Dla systemu operacyjnego jeden rdzeń procesora będzie widziany jako dwa procesory logiczne. Przy użyciu właściwego oprogramowania, w każdym z procesorów logicznych można wstrzymać jego pracę, zakłócić ją lub przypisać mu wykonanie jakiegoś osobnego zadania. Technologia Hype-Threading została zaprojektowana, aby zwiększyć wydajność pracy procesora poprzez wykorzystanie współbieżnej wielowątkowości. Typy aplikacji, które najwięcej skorzystają dzięki technologii Hyper-Threading to wirtualizacja, bazy danych, e-mail, Java TM oraz serwery web. Z reguły procesory E56xx mają HT i widoczne są w systemie jako podwójna ilość wątków. Można je zamontować również w małych i tanich serwerach np. x3550M3.

Główną zaletą wspomnianej linii serwerów jest ich skalowalność, a wiec technologia FlexNode: mogą być one połączone i funkcjonować jako jeden, lub też działać oddzielnie nawet przy fizycznym połączeniu. Maksymalna ilość procesorów to 4, z których każdy może mieć 10 rdzeni oraz technologię HT, co daje nam w sumie 80 wątków widzianych w systemie jako jeden serwer.

Ten rodzaj partycjonowania jest osiągnięty poprzez Integrated Management Module (IMM) w przypadku serwerów rack, oraz Advanced Management Module (AMM) w przypadku serwera typu blade. Zarówno IMM jak i AMM posiadają interfejsy o dostępie komendowym i mogą być udostępniane i kontrolowane z poziomu przeglądarki poprzez np. IBM Systems Director.

Serwery x3850 X5 wspierają Windows HPC Server 2008 R2 – system operacyjny zaprojektowany dla high-endowych aplikacji wymagających superkomputerów (HPC).