5 trendów IT na 2013 r. według ekspertów T-Systems

Ostatnich kilkanaście miesięcy upłynęło pod znakiem cloud computing („chmury obliczeniowej”). Choć ten model dopiero zyskuje na znaczeniu w polskich firmach i z pewnością jeszcze długo nie przestanie być wiodącym tematem rozmów w branży IT/ICT, w obowiązkowej agendzie na 2013 r. powoli pojawiają się nowe zagadnienia. Eksperci T-Systems prognozują, które rozwiązania i technologie będą dominować w biznesie w nadchodzącym roku.

1. Dalsza dominacja chmury

Maciej Plebański, dyrektor Działu Sprzedaży w T-Systems

W nadchodzącym roku w firmach będzie dominował model OPEX. Nikt już nie ma wątpliwości, że era post-PC na dobre zadomowiła się także w polskim biznesie. Z naszej obserwacji klientów na całym świecie wynika, że o ile mniejsze firmy przenoszą się do chmury przede wszystkim ze względu na optymalizację kosztów, o tyle dla większych przedsiębiorstw głównym bodźcem jest możliwość szybszej adaptacji do zmian rynkowych czy ułatwienie współpracy.

Rynek odchodzi od poszczególnych rozwiązań dostarczanych przez niezależnych dostawców w stronę zróżnicowanych systemów, które są integrowane w ramach chmury. Warto pamiętać, że przy współpracy z wiarygodnym dostawcą o wysokich kompetencjach pracowników – funkcjonalność rozwiązań w chmurze ograniczać może tylko wyobraźnia. Telekomunikacja, oprogramowanie biznesowe, przechowywanie i analiza danych – firmy na całym świecie, również w naszym kraju, będą przenosić kolejne obszary biznesowe do chmury. Prognozujemy 34-procentowy wzrost wartości usług świadczonych w modelu cloud w ciągu najbliższych czterech lat. Do końca 2016 r. ma on osiągnąć pułap 114 mld euro.

2. Zmiana sposobu korzystania z urządzeń i nowych technologii w biznesie

Ernest Orłowski, dyrektor ds. realizacji i zarządzania usługami w T-Systems

Zmienia się sposób korzystania z urządzeń i nowych technologii – w szczególności w środowisku biurowym widać skrajne trendy, które się przenikają. Z jednej strony firmy postrzegają sprzęt jako koszt operacyjny, który należy optymalizować, a jeszcze 10 lat temu ten obszar traktowany był jako inwestycja, dzięki której można osiągnąć przewagę rynkową.

Jednocześnie pracownicy w życiu prywatnym powszechnie korzystają z najnowszych urządzeń i rozwiązań, jak smartfony, tablety czy zaawansowane aplikacje, często dostępne bezpłatnie w Internecie. Przyzwyczajenia i oczekiwania z życia prywatnego leżą u podstaw trendu „konsumeryzacji” środowiska biurowego. Coraz częściej firmy pozostawiają pracownikom wybór sprzętu, oferują dofinansowanie zakupu i możliwość korzystania z prywatnych urządzeń. Podobnie jest z oprogramowaniem czy rozwiązaniami do współpracy grupowej – są wybierane zgodnie z preferencjami osób, które będą z nich korzystać.

Coraz większa złożoność i zaawansowanie technologii, ogromna liczba producentów, olbrzymie oczekiwania użytkowników i partnerów biznesowych powodują konieczność coraz większej specjalizacji, nieustannych szkoleń i nakładów na rozwój. Staje się to ciężkim do udźwignięcia obciążeniem dla firmowych działów IT. Z tego powodu na znaczeniu zyskuje wybór i wsparcie wyspecjalizowanego integratora, który zapewni wysoką dostępność „core’owych” aplikacji firmowych „z chmury” (często w modelu XasS) w dowolnym miejscu i na dowolnym urządzeniu, z którego akurat w danej chwili łączy się pracownik. Przewiduję, że nasilający się trend BYOD (Bring Your Own Device) w nadchodzącym roku doprowadzi firmy m.in. do przenoszenia coraz większej liczby aplikacji „do chmury”, a jednocześnie korzystania ze wsparcia doświadczonego integratora.

3. Rosnące inwestycje w zapewnienie bezpieczeństwa danych

Marcin Drażan, członek zarządu T-Systems w Polsce

Konieczność uwzględnienia prywatnych przyzwyczajeń pracowników podczas budowania architektury IT w firmie odbija się także na takim obszarze, jak bezpieczeństwo danych. Jest to nierozerwalnie związane z coraz bardziej powszechnym modelem Bring Your Own Device (BYOD). Już pół roku temu niemal 70% pracowników w Polsce wykorzystywało prywatne laptopy, smartfony lub tablety do celów służbowych.

Wraz z rosnącą popularnością smartfonów to zjawisko będzie się tylko nasilać, szczególnie w nadchodzącym roku. W konsekwencji firmy muszą stawić czoło coraz bardziej skomplikowanym wyzwaniom związanym z ochroną wrażliwych danych i informacji niezależnie od tego, z jakiego urządzenia i jakiego miejsca pracownik ma do nich dostęp. Urządzenia prywatne łatwiej zhakować, a z kolei pracodawcy trudniej je kontrolować. Tym samym świadomi zagrożeń szefowie firm będą przeznaczać coraz większe środki nie tylko na wprowadzanie odpowiednich polityk, procedur i szkolenia pracowników w zakresie zapewnienia bezpieczeństwa, ale także – a może przede wszystkim – na zaawansowane rozwiązania chroniące sieć i poszczególne urządzenia.

Coraz większe znaczenie będzie miało ograniczanie dostępu do danych krytycznych (dostęp przez VPN, wykorzystywanie kart identyfikujących i haseł, szyfrowanie), instalacja oprogramowania chroniącego dane i zabezpieczającego przed utratą danych z serwerów firmy (większość dostawców proponuje dzisiaj rozwiązania stanowiące odpowiednie zapory sieciowe), a na wypadek utraty urządzenia – zdalne blokowanie skradzionych lub zgubionych urządzeń i usuwanie z nich danych.

4. Nowe znaczenie data center

Krzysztof Łapiński, kierownik ds. klientów kluczowych w T-Systems

Rok 2013 w IT przyniesie znaczące zmiany w obszarze data center. Oczywiście będą one związane z rosnącym znaczeniem chmury, co spowoduje, że coraz więcej firm będzie korzystało z usług i infrastruktury za pośrednictwem profesjonalnych centrów przetwarzania danych. Co jednak ważniejsze, zmieni się także zakres operacyjny data center – to nie jest już tylko miejsce kolokacji, ale przede wszystkim – miejsce integracji złożonych platform aplikacyjnych w dynamicznych, rozproszonych geograficznie środowiskach. Kolosalny przyrost danych, zapotrzebowanie na ich niezwykle szybkie przetwarzanie (m.in. Big Data) oraz zarządzanie ruchem i bezpieczeństwem – te dynamicznie zmieniające się obszary sprawiają, że cykl adaptacji zmian w portfolio data center skraca się z 1-2 lat do zaledwie kilku kwartałów. Zaś każda z tych zmian wymaga kompetencji i sporych inwestycji kapitałowych.

Centra przetwarzania danych muszą zatem przygotować się na pracę pod presją stałej transformacji. Potrzeba użytkowa napędzająca zmiany w oprogramowaniu i sposobach korzystania z danych za jego pośrednictwem wyraźnie zbliża producentów aplikacji i ośrodki data center. Te ostatnie stają się zapleczem computingowym realizującym codzienne zlecenia developerów. Skończył się zatem czas, kiedy data center zajmowało się jedynie świadczeniem usług kolokacyjnych. Teraz data center muszą przejąć rolę integratorów złożonych i dynamicznych platform IT, które znajdują się w wielu, często bardzo rozproszonych miejscach.

5. Rosnące znaczenie Big Data i technologii in-memory, m.in. aplikacji SAP HANA

Andrzej Piksa, kierownik zespołu rozwiązań SAP w T-Systems

Zgodnie z prognozami do 2015 r. liczba cyfrowych informacji na świecie ma przekroczyć 9 zettabajtów (9 tryliardów bajtów)! To sprawia, że kwestia Big Data zyskuje na znaczeniu i w perspektywie 1-2 lat polskie przedsiębiorstwa również będą musiały się z nią zmierzyć. Transakcje, połączenia, tysiące dokumentów wytwarzanych w firmach – wszystkie te elementy wpływają na niezwykle dynamiczny wzrost ilości, objętości, różnorodności czy stopnia skomplikowania danych. To z kolei wymusza konieczność zrewidowania tradycyjnego podejścia do zarządzania informacją w biznesie.

W nadchodzącym roku firmy będą aktywnie poszukiwały rozwiązań, które usprawnią analizę i wydobycie najbardziej wartościowych informacji. Wykorzystując Big Data, korelować będziemy zatem dane z systemów zajmujących się ich gromadzeniem (ERP, CRM) i przetwarzaniem (BI) z sygnałami płynącymi w czasie rzeczywistym z otoczenia biznesowego, wskaźników makroekonomicznych czy trendów konsumenckich, m.in. w social media. Dzięki technologii in-memory, która jest jednocześnie jednym z najważniejszych elementów generacji Big Data, znacząco skraca się czas potrzebny na dostęp do niezbędnych informacji, a firmy zyskują możliwość tworzenia złożonych analiz, które mogą stanowić podstawę dla opracowywania nowych produktów i usług.

Już teraz niemal 1/3 badanych przez nas menedżerów ICT na świecie wygospodarowała odpowiednie budżety na wdrożenie technologii in-memory w zarządzanych przez nich firmach. Ponad 23% firm aktualnie opracowuje możliwość włączenia technologii in-memory w ich strategię IT, przy czym 21% już pracuje nad konkretnymi wdrożeniami. Do najbardziej znanych aplikacji in-memory należy SAP HANA – 63% respondentów zna tę aplikację, a 19% prognozuje, że stanie się ona standardową bazą danych w środowisku SAP w najbliższym czasie.