Automatyczne zabezpieczenia, systemy awaryjne i outsourcing

Strategie zapewniające nieprzerwany dostęp do danych

Po atakach z 11 września 2001 r. firma Arch Chemicals zmodernizowała system zabezpieczeń, zwłaszcza dotyczący systemów informatycznych. – Podjęliśmy inicjatywę obejmującą takie kwestie, jak zabezpieczenie terenu zakładu, ochrona przed atakami z wewnątrz oraz przywrócenie działalności, gdy stanie się coś złego – mówi Al Schmidt, szef działu informatycznego mającej siedzibę w Norwalk firmy specjalizującej się w produkcji specjalistycznych środków chemicznych, której roczna wartość sprzedaży przekracza 1 mld USD. – Jednym z elementów tej inicjatywy było dopilnowanie, aby każdy dział firmy posiadał plan kryzysowy, by wszystkie nasze plany były aktualne i znajdowały się pod ścisłą kontrolą.

Chociaż inne przedsiębiorstwa produkcyjne mogą nie być tak zainteresowane zabezpieczeniami jak Arch, wiele z nich podkreśla wagę zapewnienia najwyższej dostępności danych krytycznych. Konieczność dostępu do danych w każdej chwili w celu zapewniania ciągłości pracy – pomimo problemów technicznych lub wbrew siłom natury – staje się coraz ważniejsza dla firm różnej wielkości, działających we wszystkich branżach.

– Rozwój globalizacji i takich inicjatyw jak oszczędna produkcja (lean manufacturing) oraz posiadanie tylko bieżących zapasów sprawiają, że niezwykle istotna staje się możliwość wymiany danych z firmami na całym świecie przez dwadzieścia cztery godziny na dobę – mówi Todd Taylor, który przewodzi zespołowi rozwiązań technologicznych i infrastruktury w dziale Manufacturing & Distribution Industries w firmie Hewlett-Packard. – Krótko mówiąc, współczesne środowisko biznesowe wymaga od firm prowadzenia działalności w trybie ciągłym, bez przestojów.

W miarę jak producenci starają się uzyskać jak największą elastyczność, by przystosować się do stale zmieniających się warunków prowadzenia biznesu, szybko zdają sobie sprawę, że ewoluująca infrastruktura komunikacyjna napędza potrzebę zwiększania dostępu do informacji i systemów. – Wiele robi się, by sektor IT stał się istotnym elementem biznesu, wspierającym podstawową działalność – dodaje Taylor.

Przykładowo w przemyśle motoryzacyjnym technika IT musi wspierać działanie łańcucha dostaw oraz komunikację, gdyż  przedsiębiorstwa nie mogą sobie pozwolić na opóźnienia w dostawach wynikające z braku dostępu do najważniejszych danych.

Nacisk na dostępność

– Aby zapewnić ciągłość pracy, przedsiębiorstwa muszą być przygotowane na dwa rodzaje przerw w działaniu systemów IT – mówi Vick Vaishnavi, dyrektor marketingu produktów w firmie BladeLogic, która wytwarza oprogramowanie do automatyzacji centrów danych. – Pierwszy system obejmuje pojedyncze serwery, podczas gdy drugi – cały zakład, w którym zlokalizowane są serwery.

Przerwy w pracy serwera mogą być spowodowane takimi zjawiskami jak przeciążenie serwera w czasie najwyższego ruchu, błędy w konfiguracji serwera, błędy operatora oraz awarie sprzętu. Rozwiązaniem jest posiadanie serwera awaryjnego, przygotowanego  do przejęcia w razie potrzeby zadań uszkodzonego serwera. Najważniejsze w przypadku tego scenariusza – często określanego mianem tolerancji na błędy lub strategią przejęcia – jest zapewnienie, że serwery awaryjne są tak skonfigurowane, by dokładnie i w pełni odzwierciedlać stan serwera podstawowego, który mają zastępować. 

 

– Jeżeli jest to zrobione dobrze, przejęcie następuje w sposób niewidoczny dla końcowego użytkownika i zapewniona jest ciągłość pracy – mówi Vaishnavi. – Jeden czy kilku użytkowników korzystających z głównego serwera może zauważyć krótką przerwę, ale  procesy biznesowe będą dalej realizowane. Działy IT przedsiębiorstw muszą dopilnować, aby serwery awaryjne były zawsze zsynchronizowane z głównymi, jeżeli chodzi o aktualną konfigurację.

 

W firmach, które zlecają na zewnątrz usługi z zakresu zapewnienia dostępności danych, przeciętny czas przywrócenia sprawności systemu wynosi 18,6 godziny (29,8 godziny, gdy firmy zajmują się tym samodzielnie)

Przerwy w pracy występują, kiedy cała fizyczna lokalizacja centrum danych zostaje uszkodzona. Przyczynami mogą być działania sił natury, ataki terrorystyczne czy poważne ataki hakerów. W efekcie cała sieć serwerów w głównym centrum danych zostaje unieruchomiona, co może spowodować przerwanie pracy w całym przedsiębiorstwie.

– Aby zapobiec tego typu zdarzeniom, działy IT często korzystają z zapasowych fizycznych lokalizacji centrów danych – mówi Vaishnavi. – Odległe centra są zazwyczaj umieszczone w odległości kilkuset kilometrów od głównego i tak skonfigurowane, aby mogły włączyć się w razie przerwy w pracy całego centrum.

Zrób to sam albo z partnerem

Firmy HP i BladeLogic, a także PolyServe oraz Stratus Technologies, mogą dostarczyć narzędzia, rozwiązania i strategie zapewniające wysoką dostępność centrów danych. Niektórzy użytkownicy wybierają jednak inny model, decydując się na zlecenie projektu zewnętrznemu wykonawcy w celu ograniczenia ryzyka.

– Przedsiębiorstwa mają wybór pomiędzy całkowitym przejęciem zarządzania dostępnością informacji, w pełni zewnętrznym modelem lub rozwiązaniem pośrednim – mówi David Tapper, menedżer programów w specjalizującej się w badaniu rynku IT firmie IDC.

Opublikowany przez IDC wiosną ubiegłego roku dokument „Ensuring Information Availability: Aligning Customer Needs With An Optimal Investment Strategy” („Zapewnienie dostępności informacji: połączenie potrzeb klienta z optymalną strategią inwestycyjną) wykazuje, że istnieją konkretne korzyści finansowe oraz związane z wydajnością w przypadku firm, które pozwolą niezależnym dostawcom  zająć się wszystkimi lub tylko niektórymi usługami z zakresu zapewnienia dostępności informacji. Na przykład, jak wskazano w dokumencie, skorzystanie z usług niezależnego usługodawcy może przynieść oszczędności kosztów ponad 30%, a firmy, które nie zlecają tych usług na zewnątrz, w praktyce o 77% dłużej przywracają działalność niż przedsiębiorstwa, które korzystają z usług zewnętrznych firm.

– Korzystanie z usług zewnętrznych firm ma sens z wielu powodów – mówi Jim Grogan, wiceprezes SunGard Availability Services, specjalizującej się w dostarczaniu usług dostępu do informacji. Na przykład zarząd firmy może stwierdzić, że zapewnienie dostępności danych wymaga zbyt szerokiej wiedzy technicznej i że bieżące koszty obsługi są zbyt wysokie.

– Dość powszechne jest zjawisko, że przedsiębiorstwo chce skoncentrować się na swojej podstawowej działalności i wszystkie pozostałe czynności zlecić na zewnątrz, redukując zatrudnienie i infrastrukturę – mówi Grogan. – Jest to szczególnie widoczne w przypadku przedsiębiorstw zainteresowanych strategią przejęcia, która wymaga osobnej lokalizacji. Dwie maszyny pracujące obok siebie to za mało w przypadku awarii zasilania, pożaru czy trzęsienia ziemi.

Według Grogana trzeba sobie uświadomić, że nie jest to kwestia techniczna, ale problem natury biznesowej. Kluczem jest wybranie najbardziej opłacalnej metody stworzenia niezawodnego i działającego w sposób ciągły środowiska IT, które wspiera obsługę klientów, optymalizuje proces produkcji i łańcuch dostaw.

– Firma Arch Chemical odpowiedziała na to wyzwanie, przeprowadzając formalną analizę ryzyka, by sprawdzić, co stanie się, jeżeli system przestanie działać – wyjaśnia Schmidt.

Stwierdzono, że system musi zostać przywrócony do działania w ciągu 48 godzin. Ze względu na rozmiary infrastruktury IT w przedsiębiorstwie Arch Chemical miałoby problemy z dotrzymaniem tego terminu.

– Zaprosiliśmy kilku dostawców i zapytaliśmy, co jest potrzebne, aby przywrócić pracę w ciągu 48 godzin – mówi Schmidt. – Niektórzy zasugerowali automatyczne przeniesienie obciążenia na inny serwer, ale nie było nas na to stać. Inne rozwiązania obejmowały archiwizowanie danych. Szukaliśmy czegoś pośrodku, co mogłoby przywrócić działanie w czasie 24 do 48 godzin i mieściłoby się w naszym budżecie. Wspólnie z SunGard i innymi dostawcami Arch zredukował czas przywracania możliwości pracy o połowę i utrzymał się w budżecie. Przedtem przywrócenie całej bazy danych trwało ponad 48 godzin, ale nasze wysiłki pozwoliły skrócić ów czas do 18–20 godzin.


INFRASTRUKTURA IT W ZAKŁADACH

Rockwell wykorzystuje IBM WebSphere

Wykorzystując kilkuletnie doświadczenie ze współpracy z IBM w obsłudze branży motoryzacyjnej, firma Rockwell Automation – globalny dostawca systemów automatyzacji przemysłowej, systemów zasilania i kontroli oraz rozwiązań informatycznych – ogłosiła niedawno nową inicjatywę, mającą na celu zintegrowanie systemu nadzoru produkcji w zakładzie z platformą przesyłu informacji IBM WebSphere MQ Series.

Opracowane przez Rockwella rozwiązania systemów nadzoru i interfejsów człowiek-maszyna są ściśle powiązane ze środowiskiem Windows. Ale związki z IBM w obszarze aplikacji dla zakładów (np. organizacja pracy) istnieją od ponad trzech lat.

– Nasi klienci poszukiwali pojedynczego rozwiązania – aplikacji łączących działalność zakładu z biznesową w celu wykorzystania WebSphere z ich systemami ERP – mówi Beth Parkinson, menedżer produktu w Rockwell Automation, przytaczając jako przykład jedną z wczesnych instalacji w zakładach International Truck and Engine, gdzie wykorzystywano system Baan ERP.

„Licencjonujemy technikę IBM, aby dodać do naszych aplikacji architekturę zorientowaną na usługi oraz system organizacji pracy”

 

Kevin Roach, wiceprezes ds. oprogramowania, Rockwell Automation

Dzięki nowemu porozumieniu Rockwell stanie się resellerem kilku komponentów IBM WebSphere, wśród których znajdzie się WebSphere Business Integration Adoption Model – jako broker integracji, WebSphere MQ wykorzystywany do integracji transakcji oraz WebSphere Portal służący do integracji interfejsów użytkownika.

Przedstawiciele Rockwella twierdzą również, że firma wykorzystuje IBM Business Integration Adoption Model oraz WebSphere do wdrożenia architektury zorientowanej na usługi. Celem jest „pomaganie producentom w przekształcaniu informacji w wiedzę, aby uzyskać lepsze wyniki w biznesie”.