Dyscyplina procesu i formalnych procedur to lekarstwo na nieprawidłowe dane

Jakość danych pozostawia wiele do życzenia, sądząc po ostatnich komentarzach analityków.

Badanie przeprowadzone przez znajdującą się w Cambridge k. Bostonu firmę Forrester Research wykazało, że prawie jedna trzecia firm-respondentów nie stosuje systematycznego podejścia do jakości danych. Raport sporządzony w maju przez Gartner Group (Stamford, USA) podaje, że ponad 25% krytycznych danych w firmach z rankingu 1000 czasopisma Fortune nie spełnia wymagań jakościowych ze względu na: błędy w ich wprowadzaniu, niekompatybilne formaty, niekonsekwentne definicje oraz problemy z kompilowaniem danych pochodzących z różnych placówek firmy. Z kolei bostońska firma AMR Research w opublikowanym również w maju raporcie dokonuje rozróżnienia pomiędzy problemami z obsługą transakcji i jakością stosownych danych a problemami dotyczącymi danych z pomiarów.

Według raportu AMR niestaranne zarządzanie rekordami jest podstawową przyczyną złej jakości danych transakcyjnych, co może mieć kosztowne konsekwencje:

  • niewłaściwe wypełnianie zamówień klienta,
  • niewłaściwe wystawianie faktur,
  • niekompletne rekordy dotyczące stanów
  • magazynowych,
  • zła jakość danych głównych daje złą jakość produktów,
  • nieprecyzyjne procesy zapisywania danych finansowych.

– Większość przedsiębiorstw nie wyobraża sobie, jak wielki wpływ mają problemy z jakością danych – mówi Ted Friedman, główny analityk w firmie Gartner. – [Problemy z danymi] mogą spowodować utratę zleceń i spadek produktywności, co wpływa na zyskowność.

Środki zaradcze zalecane przez AMR obejmują zwiększenie dyscypliny procesów oraz zastosowanie technik Six Sigma, jeśli obszar danych pomiarowych procesów jest zagmatwany. Pomiary takie jak wydajności dzienne oraz atrybuty produktów, np. grubość czy ciężar, „podążają za rozkładem prawdopodobieństwa”, co może zaburzać precyzję odwzorowania stanów magazynowych i raportowanie trendów.

Co zrobić ze złymi danymi

  • Wykonać pomiary źródeł danych, aby sprawdzić precyzję, zakres oraz zmienność danych, jakiej można oczekiwać.
  • W przypadku danych pochodzących z rzeczywistych transakcji trzeba zastosować techniki zarządzania wydajnością w celu doskonalenia procesów oraz szkolenia personelu, aby podnieść jakość na bardzo wysoki poziom. Jest to minimum niezbędne do spełnienia oczekiwań klienta i wymogów statutowych.
  • Trzeba znaleźć i scharakteryzować inne przydatne źródła danych, różne od danych transakcyjnych, które muszą być zawsze stosowane w celu zrozumienia, w jaki sposób zmienność danych pochodzących z różnych źródeł wpływa na zwiększenie lub uśrednienie zmienności ogólnej.
  • Trzeba zbadać zastosowanie prostych samo korygujących się algorytmów (walidacja danych, systemy i kody samokorekcyjne) w większości działań z zakresu planowania. Obliczenie optimum na podstawie nieuporządkowanych, niekompletnych danych jest zbędnym ryzykiem.

Źródło: AMR Research