Analiza dużych zbiorów danych Big Data dzięki wykorzystaniu monitorowania sieci

Analiza poprawności akwizycji danych w dużych zbiorach danych umożliwia producentom podejmowanie trafniejszych decyzji oraz usprawnianie procesów. Kluczową rolę może w tej kwestii odegrać monitorowanie sieci.

Implementacja systemów i narzędzi analityki dużych zbiorów danych to obecnie zagadnienie globalne, w fazie pełnego rozkwitu. Informacje i dane wręcz zalewają sieci z wielu poziomów, a przyświeca im jeden cel: zwiększenie efektywności i produktywności firm, przy utrzymaniu wzrostowej tendencji zysku.  

Gdy producent decyduje się na wdrożenie mechanizmów analizy dużych zbiorów danych oznacza to, że w tym momencie jego sukces zależy w jeszcze większej mierze niż dotychczas od poprawnego funkcjonowania sieci. Kluczowe decyzje biznesowe podejmowane są w oparciu o właśnie te analizy, a gdy brakuje dostępu do danych, tracony jest drogocenny czas.

Przy rozszerzeniu zakresu wykorzystania nowych technologii w firmie, niezwykle ważnym staje się wdrożenie odpowiednich narzędzi do monitorowania poprawności komunikacji i parametrów sieci transmisji danych, dzięki którym zyskuje się pewność, że wszystkie funkcje działają i są w pełni dostępne. Sieci rozrastają się i stają się coraz bardziej skomplikowane – to fakt, a co za tym idzie, pojawia się w nich coraz więcej potencjalnie słabych punktów. Z pomocą przychodzą tu narzędzia monitorujące, wychwytujące wszelkie nieprawidłowości.

Przykładem może być linia produkcji chipów w firmie Intel. Przyjęte tam procedury zakładają wielokrotne, wieloaspektowe testowanie każdego układu, który schodzi z linii produkcyjnej. W ten sposób każdy musi przejść nawet 19 000 testów.

Intel wykorzystał narzędzia analizy dużych zbiorów danych do przeprowadzenia analizy predykcyjnej i w ten sposób zredukował ilość testów niezbędnych do przeprowadzenia, w celu spełnienia wymogów kontroli jakości. Poczynając od analizy danych pochodzących z procesu produkcji płytek półprzewodnikowych, firma wprowadziła nowe procedury testowe na całej linii.

W efekcie zaoszczędziła 3 miliony dolarów na kosztach produkcji jednej linii procesorów Intel Core. Firma planuje oszczędności w wysokości kolejnych 30 milionów dolarów, dzięki rozszerzeniu wykorzystania analityki dużych zbiorów danych do produkcji chipów.   

Sieć pod czujnym okiem

Jeśli sieć nie jest w stanie obsłużyć transmisji tych kluczowych informacji dostarczanych z niezliczonej ilości czujników oraz nie ma możliwości ich dostarczenia do odpowiedniego narzędzia analitycznego, wspomniane milionowe oszczędności pozostają tylko w sferze marzeń.

Ponadto duże zbiory danych współpracują z Przemysłowym Internetem Rzeczy (IIoT), co zapewnia dodatkowy przypływ informacji pozyskanych z większej ilości czujników. Obydwa te czynniki składają się na większy stopień skomplikowania i rozmiar sieci.

Trzeba też pamiętać, że w niektórych środowiskach przemysłowych, takich jak farmacja, przemysł chemiczny i górniczy, skrajne wahania i zmienności monitorowanych parametrów to w zasadzie pewnik.

W przypadku znaczącego skomplikowania procesu produkcji, producenci potrzebują zaawansowanego, pogłębionego narzędzia do diagnozowania i naprawy usterek w sieci. Tu znajdują zastosowanie analizy opracowywane dzięki narzędziom monitorowania sieci i jej parametrów roboczych. Wykorzystanie dodatkowych statystyk oraz innych narzędzi matematycznych w analizach danych biznesowych, umożliwia ocenę oraz ulepszenie wykorzystywanych procedur.

Podczas produkcji procesy mogą w oparciu o zaawansowaną analizę korzystać z danych historycznych, identyfikować modele oraz związki pomiędzy etapami i elementami wejściowymi, a następnie przeprowadzić optymalizację tych czynników, które mają największy wpływ na wydajność.

Firma Tata Consultancy Services w jednym z przeprowadzonych przez siebie badań poprosiła producentów o ocenę następujących zalet systemów akwizycji i analityki dużych zbiorów danych, takich jak: jakość produktów, planowanie dostaw, śledzenie usterek w procesie produkcji oraz w procesach realizacji dostaw, defektów komponentów składowych oraz obsługi częściami zamiennymi. Najwięcej głosów przyznano jakości produktów oraz śledzeniu usterek.

Możliwości analityczne

Fakt, iż coraz więcej użytkowników decyduje się na wykorzystanie możliwości analizy dużych zbiorów danych, skutkuje rozrostem sieci. Rozwój sieci oraz zależność od nich procesów i procedur sprawiają, że wgląd w aktualny stan rzeczy jest nie do przecenienia.    

Z punktu widzenia technologii i narzędzi obsługi dużych zbiorów danych, producentom zależy na uzyskaniu dużych ilości informacji, które mogą przetwarzać w oparciu o inne narzędzia. Istnieje możliwość pobrania danych z narzędzia monitorującego sieć oraz eksportu informacji do wykorzystania przez inny program do analizy dużych zbiorów danych, w którym wykorzystywane są narzędzia analityczne.

Następnie powstaje możliwość zaprezentowania danych sieciowych oraz wyselekcjonowania istotnych faktów obrazujących potencjalne odchylenia lub punkty, które przyczynią się do wsparcia wzrostu produktywności w ramach przedsiębiorstwa.

W środowisku technologii operacyjnych (OT) producenci wykorzystują duże zbiory danych do wprowadzania ulepszeń swoich produktów i procesów. Znacząco zwiększyli oni rozmiar i złożoność swoich sieci, by wzbogacić je o nowe czujniki, mające przyczynić się do głębszego poznania procesów, a następnie dostarczenia danych z powrotem do ich serwerów.

Producenci musieli uzyskać pewność, że są w stanie komunikować się z czujnikami poprzez własną sieć, co w efekcie pozwala na prowadzenie monitorowania w czasie rzeczywistym.

Plusem tej sytuacji jest możliwość pozyskania ogromnej wiedzy, która może producentowi pomóc rozwijać się. Minusem jest jednak fakt, że takie postępowanie zwiększa prawdopodobieństwo zaatakowania sieci. Dlatego też niezbędne jest wychwytywanie i przechowywanie kluczowych danych na wypadek dochodzenia, jeśli sieć stanie się przedmiotem przypadkowego lub celowego ataku złośliwego oprogramowania.

Archiwizacja danych

W odniesieniu do tego, co opisano wcześniej, istnieje możliwość przechowywania danych przez okres dni, tygodni, miesięcy oraz lat, co zapewnia kompleksowy wgląd w zmienność parametrów roboczych sieci w czasie. W klasycznym przypadku użytkownik uzyskuje dostęp do poziomów wydajności i na tej podstawie określa, czy należy przeprowadzić aktualizację. Obecnie, przy takiej ilości dostępnych danych, użytkownik zadać może pytanie: “Czy potrzebujemy aktualizacji? A może powinniśmy zmienić operacje, na które zezwalamy w ramach sieci albo rozdzielić sieć, przenieść ruch komunikacji tego typu danych w określony obszar sieci, żeby nie wydawać dodatkowych pieniędzy na inwestycje w obszarach, gdzie nie jest to konieczne, a które moglibyśmy zaoszczędzić?”

Kwestia implementacji i obsługi dużych zbiorów danych sprowadza się do zagadnienia sieci i funkcjonalnych jednostek organizacyjnych. Im popularniejsze będzie korzystanie przez przemysł z sieci i zasobów technologii informacyjnej (IT), tym więcej danych stanowiących dla przedsiębiorstwa ogromne wsparcie zostanie wygenerowanych w systemie sieciowym. Oparcie się w większym stopniu na technologii wcale nie musi przysparzać trudności. Wręcz przeciwnie – skuteczne wdrożenie dodatkowych narzędzi do monitorowania stanu sieci może przyczynić się do zapewnienia ich poprawnego działania i dostępności wszystkich funkcji, a cały proces zmierzać będzie ku większej rentowności.

Autor: Gregory Hale pracuje jako redaktor strony internetowej Industrial Safety and Security Source (ISSSource.com) przedstawiającej najświeższe informacje dotyczące kwestii bezpieczeństwa w sektorze automatyzowania procesu produkcji.