polski english

tel:+48 71 716 41 44
fax: +48 71 716 51 66
e-mail: madu@madu.pl

ZAAWANSOWANE ROZWIĄZANIA DLA TWOJEJ ARCHITEKTURY IT

Projektujemy i dostarczamy
architekturę serwerową...

...z uwzględnieniem
wszystkich wymagań
technicznych
i biznesowych

NASZA OFERTA


Cechy optymalnej infrastruktury:
zwiększone bezpieczeństwo

Awaria – „naturalna anomalia”?
Lepiej pogodzić się z faktem, że awarie się zdarzają i przygotować się na nie, niż trwać w naiwnym i idealistycznym przeświadczeniu, że nic takiego się nie wydarzy. Jak mawia słynne przysłowie: „Przezorny zawsze zabezpieczony”. Warto uzmysłowić sobie również, że awaria awarii nierówna. Jedne są planowane i wynikają np. z niezbędnego aktualizowania, serwisowania sprzętu czy backupów. Inne są nieprzewidywalne, zależą od fizycznej awarii sprzętu, czy to na skutek błędu ludzkiego, czy też czynników losowych, typu różnego rodzaju katastrofy. Plusem jest to, że awarie planowane mogą nam pomóc przygotować na nieprzewidziane zdarzenia.

Inny podział zagrożeń to: - wewnętrzne – nieuprawnione modyfikacje danych oraz ich nieuprawnione wyniesienie przez pracowników -zewnętrzne – kradzież danych, sabotaż

Bezpośrednim i najgorszym efektem awarii naszej infrastruktury jest oczywiście przestój. Skutki takiego potencjalnego przestoju to: - utrata przychodów - utrata zaufania klientów - konsekwencje prawne

W branży IT wciąż istnieje pewien brak współbieżności i harmonii – jeśli priorytetem staje się bezpieczeństwo, może się okazać, że im system bardziej bezpieczny, tym mniej wydajny i trudniejszy w zarządzaniu, potrzebne są także większe nakłady finansowe. Dzieje się tak zwłaszcza w przypadku zwiększania bezpieczeństwa infrastruktury poprzez dodatkowe oprogramowanie, które może ją znacząco obciążyć, wymagać będzie dodatkowych licencji itd. Nie zawsze jednak musi tak być i przy dobrym, gruntowanie przemyślanym projekcie można zoptymalizować wiele czynników naraz. W wymiarze sprzętowym zaś posiadanie redundantnej infrstruktury nie ma wpływu na jej wydajność, co najwyżej powoduje większe wydatki przy zakupie i utrzymaniu (nie warto jednak oszczędzać, gdyż w przypadku awarii koszt będzie niewspółmiernie wysoki w stosunku do, jak się nam wydawało, zaoszczędzonej kwoty) oraz wymaga mądrze przemyślanego zarządania.

Jak więc przygotować się na awarię? Rozwiązaniem jest dokonywanie archiwizacji, backupów i planowanych awarii.

Archiwizacja a kopie bezpieczeństwa
Przede wszystkim należy odróżnić pojęcia archiwizacji (data archiving) oraz tworzenia kopii zapasowych (backup copy), są to bowiem dwie zupełnie inne rzeczy. Archiwizacja to przeniesienie nieużywanych danych na bezpieczny, zewnętrzny nośnik. Powinna ona pozwolić potem na dostęp do konkretnych danych bez konieczności odtwarzania całych baz. Kopia zapasowa natomiast służy do przywrócenia systemu, stanu serwera itd. w przypadku jego utraty lub uszkodzenia.

Wybór bezpiecznego miejsca
Należy pamiętać, że zarówno kopie bezpieczeństwa, jak i zarchiwizowane dane powinny być przechowywane w fizycznie innym miejscu. Dlatego właśnie posiadanie zapasowej macierzy w tej samej szafie rozwiązuje problem tylko częściowo. Zarchiwizowane dane najlepiej trzymać w zupełnie innym pomieszczeniu, najlepiej w jakimś odpowiednio zabezpieczonym miejscu. W ten sposób można uniknąć całkowitej utraty infrastruktury w wyniku wypadków losowych. Wiele osób myśli, że wypadki dotykają tylko innych, ale jeden z naszych Klientów musiał zmierzyć się z odzyskiwaniem serwerów po tym, jak prawie wszystkie ucierpiały na skutek uderzenia pioruna. Takie wypadki naprawdę się zdarzają i mogą przytrafić się każdemu.

Wybór sposobu archiwizacji
Projektując system archiwizacji należy pamiętać, że po pewnym czasie okaże się, że ilość zarchiwizowanych danych przekracza ilość normalnych informacji. W przypadku małych firm, gdzie ilość danych nie jest jeszcze tak duża, a budżet ograniczony, część z nich stosuje dyski zewnętrzne lub kupuje tanie rozwiązanie typu NAS zapewaniające redundancje archiwizowanych danych.

W przypadku średnich firm, w których ilość komputerów wynosi ok. 50, a ilość serwerów ok. 4-5, dysk nie jest dobrym rozwiązaniem. Stosuje się raczej nagrywanie danych na pamięć taśmową, a więc zewnętrzną pamięć masową w postaci taśmy magnetycznej ( Linear Tape-Open - LTO).

Plusy archiwizacji typu LTO :
- świetnie nadaje się do archiwizacji bardzo dużej ilości danych
- ułatwia fizyczne przeniesienie zarchiwizowanych danych do innej bezpiecznej lokalizacji
- jest mniej odporna na uszkodzenia niż tak skomplikowane urządzenie jak dysk – czas żywotności taśmy magnetycznej wynosi od 15 do 30 lat, wytrzymuje ona nawet temperaturę 100 stopni Celsjusza

Minusy:
- długi czas zapisu
- długi czas odczytu - późniejszy dostęp do danych zgromadzonych na taśmach musi odbywać się w trybie sekwencyjnym, a więc trzeba czekać, aż taśma przewinie się do miejsca, w którym nagrane są interesujące nas dane. Można ją czytać w dowolnej kolejności, jednak znalezienie interesującego nas bloku informacji, to w efekcie długotrwały i mało wydajny
sposób dostępu, zwłaszcza, że może zdarzyć się, iż np. jeden folder będzie nagrany na kilku taśmach, w zależności od wybranej częstotliwości archiwizacji.

Porównując archiwizowanie na dyskach i taśmach, pierwszy sposób jest o wiele szybszy, lecz droższy, drugi zaś odwrotnie: wolniejszy, ale o wiele tańszy i bezpieczniejszy.

Wirtualna Biblioteka Taśmowa - VTL (Virtual Tape Library)
To zupełnie nowe, najbardziej wydajne chyba rozwiązanie służące archiwizacji (nie jest to opcja standardowa w IBM, ale w NetAppie już tak). Są to urządzenia dyskowe służące do emulacji (czyli wiernego naśladownictwa) normalnych bibliotek taśmowych. Oprogramowanie backupowe widzi bibliotekę wirtualną tak, jakby była normalną, a więc o określonej liczbie napędów i taśm. Sprawia to, że wdrożenie takiego rozwiązania jest proste i nie wymaga specjalnych zmian w konfiguracji systemu. Drugą podstawową zaletą tego rozwiązania jest opcja deduplikacji. Deduplikacja to proces eliminacji powtarzających się danych, przez co znacznie zmniejsza się ich objętość zapisu. W ten sposób np. jeden folder zostanie zapisany na 4, a nie na 10 taśmach.

Ryzykowne chmury?
Wydawać by się mogło, że popularność, jaką zdobyło sobie cloud computing w roku 2010 nie jest wynikiem tylko działań marketingowych, ale rzeczywistą odpowiedzią na potrzeby Klientów. Zapewnienia o niezawodności, redundancji i fizycznym odseparowaniu poszczególnych stref okazały się jednak nie w pełni prawdziwe. Dowodem jest ostatnia wpadka chmury Amazona EC2. Tysiące użytkowników zostało odciętych od swoich serwisów. Awaria w jednej strefie dostępności spowodowała efekt domina, który objął cały region, co nie powinno przecież mieć miejsca. Amazon nie wyjaśnił tej nieścisłości. Okazuje się więc, że publiczne chmury nie zawsze stanowią idealne rozwiązanie gwarantujące ciągłość i niezawodność, a co za tym idzie wielowymiarowo rozumiane bezpieczeństwo. Część danych została bezpowrotnie stracona i nie da się ich odzyskać. Pod znakiem zapytania staje sposób wykonywania i przechowywania przez Amazona kopii bezpieczeństwa – gdyby były przechowywane w innym pomieszczeniu i na innym fizycznym nośniku, stracone dane byłyby do odzyskania. Z pewnością awaria ta nieodwracalnie zmieniła świadomość wszystkich, którzy korzystają z usług cloud computing. Dla niektórych firm utrata zaufania oznacza niekiedy utratę od lat budowanego wizerunku i może przełożyć się na finansowy krach. W takich sytuacjach poleganie na archiwizacji w chmurze może okazać się złudnym ułatwieniem. Warto zatroszczyć się o własne kopie bezpieczeństwa i posiadać nad nimi fizyczną kontrolę.

Jednym ze sztandarowych kontrargumentów w tej dyskusji jest to, że przecież dokładnie takim samym zaufaniem darzymy zakład energetyczny, zakład wodociągowy, czy inne jednostki świadczące usługi niezbędne dla codziennego funkcjonowania. Różnica polega jednak na tym, że firmy te nie posiadają naszych oryginalnych zasobów, dlatego w przypadku odłączenia usługi ich nie tracimy. Nie wiadomo w jakim kierunku rozwiną się chmury. Z pewnością potrzeba bezpieczeństwa ze strony Klientów będzie wyznaczała coraz wyższy standard usług cloud computing’u.

Inną kwestią związaną z bezpieczeństwem w chmurze jest to, że w usługach typu IaaS (Infrstructure as a Service) oraz SaaS (Software as a Service) istnieje wiele zastrzeżeń dotyczących korzystania z nich przez instytucje zaufania publicznego, gdzie przepisy prawne ściśle regulują przechowywanie i administrowanie danymi osobowymi i innymi danymi o wysokiej randze ważności. Obecnie w Polsce również narasta dyskusja wokół tej kwestii, a konkretnie dotyczy ona możliwości wykorzystania cloud computing przy wprowadzaniu usług e-adminsitracji. Ponieważ w modelu cloud serwery mogą być rozproszone po całym świecie, a przez to podlegać prawu różnych krajów, klient nie ma kontroli nad dostawcą, a zatem trudne jest monitorowanie wywiązywania się z SLA (Service Level Agreement). W polskim prawie to dana instytucja odpowiada za przechowywanie i bezpieczeństwo danych osobowych i nie istnieje możliwość przeniesienia tej odpowiedzialności na podmiot pośredniczący. W USA prawo jest nieco inaczej skonstruowane, ale już teraz w odpowiedzi na tego typu potrzeby tworzone są odseparowane chmury, np. tylko do użytku rządowego.

Bezpieczeństwo infrastruktury wirtualnej
Przede wszystkim kwestie bezpieczeństwa należy rozważyć przed wprowadzeniem wirtualizacji i dostosować je do struktury przedsiębiorstwa lub instytucji i modelu zarządzania. Jednym z rozwiązań jest wielowarstwowość obszarów administrowanych i przydzielenie różnym administratorom różnych uprawnień. Związanie infrastruktury wirtualnej z modelem biznesowym może znacznie uprościć późniejsze zarządzanie całym system, przydzielanie uprawnień i udostępnianie zasobów. Warto schierarchizować ważność aplikacji, ustalić, które są strategiczne, a które mniej ważne lub może nawet zbędne. Należy również uwzględnić fakt komunikowania się aplikacji i stworzyć między nimi bariery bezpieczeństwa. Kolejną ważną kwestią jest ustalenie w jaki sposób oprogramowanie zabezpieczające będzie obciążać całe środowisko i dopasować do niego wymagania sprzętowe, tak, aby cała infrastruktura nie została niepotrzebnie spowolniona. Każdy nowo uruchamiany program stawia określone wymaganie dla systemu operacyjnego i sprzętu. Przy dużej liczbie wirtualnych desktopów stosunek liczby serwerów może decydować o awaryjności i bezpieczeństwie całej infrastruktury.

Należy pamiętać, że każde jakkolwiek nowatorskie rozwiązania, również posiadają swoje obszary newralgiczne, o które należy zadbać. Nie inaczej jest z wirtualizacją. Centralizacja może dać zwiększoną kontrolę strefy użytkownika. Fakt, że wszystkie procesy dzieją się w serwerowni podwyższa bezpieczeństwo, nie oznacza jednak, że należy pozostawić ten poziom bez zabezpieczeń. W innym wypadku bowiem, centralizacja okaże się być głównym zagrożeniem, bo daje dostęp do całych zasobów. Cyberprzestępca może włamać się do hypervisora, a więc oprogramowania nadzorującego działanie wirtualnych maszyn.

Największe obawy pojawiają się zwykle w związku z tym, że w przypadku konsolidacji infrastruktury, awaria fizycznego serwera, na którym zwirtualizowane są desktopy, spowoduje przerwanie ciągłości pracy całej firmy. Jednakże przy odpowiednim rozwiązaniu redundantnym problem taki nie istnieje, mało tego, kopie bezpieczeństwa można wykonywać podczas normalnej pracy serwera. W razie awarii można potem uruchomić wirtualną maszynę na innej fizycznej i ciągłość pracy zostaje zachowana.

Oprogramowanie służące ochronie środowiska wirtualnego jest coraz bardziej wyrafinowane i skuteczne, zostawiając coraz mniejsze pole do popisu dla ataków. Dostępna jest już np. funkcja aktualizacji maszyn wirtualnych nawet wtedy, gdy są wyłączone.

Innym ważnym aspektem jest kontrolowanie tworzenia nowych maszyn wirtualnych – przy jego braku łatwo mogą pojawić się zasoby i strefy, o których specyfice się zapomina lub też dostęp do nich zostaje automatycznie przydzielony osobom niepowołanym. Nie wiadomo potem jakie aplikacje działają na tych maszynach, ani gdzie są one przechowywane. Warto stworzyć restrykcyjną politykę tworzenia nowych maszyn wirtualnych, utrzymywać jak największą przejrzystość wirtualnej infrastruktury i stale ją monitorować.

Według najnowszych badań i prognoz odsetek niezabezpieczonych wirtualnych serwerów wykładniczo maleje. Wirtualizacja sama w sobie nie stwarza nowych zagrożeń. Generuje natomiast dużo nowych możliwości w związku z tym, że infrastruktura wirtualna daje dużą skalowalność, elastyczność i efektywność – niestety beztroskie korzystanie z tych dobrodziejstw bez zastanowienia się nad kwestią bezpieczeństwa może mieć przykre konsekwencje.

Czasami wciąż największym zagrożeniem nie jest sprzętowa awaria, tylko czynnik ludzki. Dobrze zarządzany zespół, przejrzyste protokoły bezpieczeństwa, wybór właściwych wykwalifikowanych osób na stanowisko administratorów mogą zminimalizować ryzyko.

Dobre rozwiązania w kwestii zabezpieczenia wirtualnej infrastruktury posiada oprogramowanie IBM Tivoli Security. Sprawdza się ono w obszarach:
- zabezpieczenia dostępu i tożsamości - wydajna administracja cyklem życia użytkownika i kontrole dostępu ze zintegrowanym monitorowaniem
- bezpieczeństwa danych i aplikacji – scentralizowane zarządzanie polityką bezpieczeństwa i scentralizowane zarządzanie cyklem życia kluczy kodujących
- zarządzania bezpieczeństwem dla z/OS – zwiększone bezpieczeństwo administrowania, zarządzania użytkownikiem oraz raportowanie zgodności.

Czy istnieje rozwiązanie idealne?
Oczywiście, że nie. Istnieje natomiast na pewno rozwiązanie idealnie dopasowane do naszych potrzeb - rozważając więc problem bezpieczeństwa naszej infrastruktury należy je przeanalizować i sporządzić ich hierarchię.

BHP infrastruktury
1. Działaj redundantnie – pamiętaj o stworzeniu kopii bezpieczeństwa oraz archiwizacji danych

2. Dziel i rządź, czyli moduły, warstwy, strefy – wydzielaj pewne krytyczne rejony twojej infrastruktury i twórz zabezpieczenia na ich granicach, tak, aby efekt domina był jak najmniejszy.

3. Testuj i jeszcze raz testuj – nie ma potrzeby narażać całego systemu i lepiej jest testować wszystkie nowatorskie zmiany, zwłaszcza jeśli np. istnieje darmowa trialowa wersja jakiegoś oprogramowania

4. Identyfikuj zagrożenia i eliminuj je, jeśli jesteś w stanie- to trywialna rada, ale zdarza się czasem, że Klienci nie są świadomi tego, że wiedza na temat zagrożeń, pozwala je omijać lub ich unikać.

Skorzystaj z naszych usług
W jaki sposób pomożemy Ci zwiększyć bezpieczeństwo twojej infrastruktury IT?

  • - zidentyfikujemy problemy i zagrożenia dla Twojej infrastruktury na podstawie przeprowadzonego audytu (działamy na terenie całego kraju)
  • - przedstawimy najlepsze naszym zdaniem rozwiązania i sporządzimy kosztorys
    z możliwością negocjacji cen
  • - opracujemy dla Ciebie plan awaryjny, który pozwoli na utrzymanie ciągłości biznesowej i pełne odtworzenie danych przy utrzymaniu dostępności systemów i zasobów
  • - zapewnimy zgodność ze standardami i przedstawimy dalsze opcje, które pozwolą jeszcze skuteczniej chronić twoją infrastrukturę wraz z jej rozwojem