2018 rokiem sztucznej inteligencji i intensywnej analizy danych

Michał Grams, Współzałożyciel i Prezes Zarządu TogetherData
Michał Grams, Współzałożyciel i Prezes Zarządu TogetherData
  • 70% światowych firm zacznie eksperymentować ze sztuczną inteligencją, w Polsce od 20 do 25%.
  • Outsourcing analizy danych zdominuje globalny krajobraz biznesowy
  • Badacz danych stanie się najbardziej poszukiwanym zawodem w branży IT.
  • Wzrośnie znaczenie “jezior danych”

 Sztuczna inteligencja, outsourcing procesów analitycznych, szerokie zastosowanie tzw. data lakes – to główne trendy, które w 2018 roku zdominują analitykę danych – jedną z najbardziej dynamicznie rozwijających się gałęzi IT. Zdaniem ekspertów epoka zachwytu i rozpływania się nad możliwościami Big Data w 2018 roku minie. Przedsiębiorstwa zafascynowane perspektywami związanymi z tą analizą danych będą musiały przystąpić do działania.

Sztuczna inteligencja na barykadach rewolucji

Sztuczna inteligencja (SI, ang. artificial intelligence, AI) ma potencjał na dokonanie rewolucji w biznesie. Już dziś służy agregowaniu ogromnych ilości danych, analizie i wyciąganiu wniosków czy opracowania symulacji zmian i trendów. SI usprawnia procesy sprzedaży oraz obsługi klienta. Dlatego też raport firmy analitycznej Forrester wskazuje, że w ciągu najbliższych dwunastu miesięcy nawet aż 70%. przedsiębiorstw na świecie zacznie pracę polegające na wdrożeniu AI. Co ciekawe wyniki osiągane dzięki zastosowaniu sztucznej inteligencji stają się coraz częściej podstawą do podejmowania kluczowych decyzji biznesowych. Blisko 20%. firm w 2018 roku uzależni strategiczne procesy decyzyjne od algorytmów bazujących na SI[1].

Michał Grams, Współzałożyciel i Prezes Zarządu TogetherData
Michał Grams, Współzałożyciel i Prezes Zarządu TogetherData

W Polsce potrzebę implementacji SI zauważają szczególnie podmioty działające w takich obszarach jak e-commerce, finanse, ubezpieczenia, windykacja czy branża rekrutacyjna. Z naszych szacunków wynika, iż w 2018 roku na polskim rynku liczba przedsiębiorstw, które zaimplementują rozwiązania bazujące na sztucznej inteligencji może wynieść od 20 do 25%. – mówi Michał Grams, Współzałożyciel i Prezes Zarządu TogetherData

Analiza danych pod znakiem outsourcingu

Wiedza o zarządzaniu danymi i ich monetyzacji okazuje się motorem napędowym zysków w firmach. Jak wynika z badania „Going beyond the data. Turning data from insights into value”, przeprowadzonego przez firmę KPMG International, 8 na 10 (82%) przebadanych przedsiębiorstw twierdzi, że dzięki zrozumieniu mechanizmów z zakresu analityki wielkich zbiorów danych, udało im się lepiej zrozumieć potrzeby swoich klientów i skuteczniej reagować na nie ofertowo[2]. To jednak działanie wymagające zatrudnienia wykwalifikowanych specjalistów w tej dziedzinie. Dlatego alternatywą względem wewnętrznych komórek funkcjonujących w firmach i wyspecjalizowanych w działaniach z zakresu data analytics, mogą okazać się zewnętrzni badacze danych, którzy w swojej pracy na co dzień mają styczność ze strumieniami danych i je analizują. Eksperckie usługi doradcze, które pomogą w uporządkowaniu oraz zrozumieniu zebranych danych, będą stanowić rozwijającą się część rynku. Według raportu Forrestera w 2018 roku aż do 80%. firm skupi się na outsourcowaniu procesów analitycznych (o 20%. więcej niż w 2017)[3].

Polskie firmy od lat z wielkim trudem przekonują się do analityki danych. Według badań przeprowadzonych przez firmę Intel, raptem co piąte polskie przedsiębiorstwo wykorzystuje narzędzia z zakresu analityki danych. Pod tym względem zajmujemy jedno z ostatnich miejsc w Europie. Rok 2018 będzie stał pod znakiem datyzacji polskiego biznesu, to znaczy pokazania mu czarno na białym realnych, finansowych i organizacyjnych korzyści, płynących z odpowiedniego posługiwania się danymi i zarządzania nimi – stwierdza Michał Grams. To bez wątpienia kluczowy moment dla firm zajmujących się szeroko pojętą analityką danych.

Badacze danych poszukiwani

W 2018 roku. będzie także rosło zapotrzebowanie na pracowników naukowych, którzy są w stanie sprostać konieczności dogłębnego teoretycznego zrozumienia wielu problemów. Z raportu Forrestera wynika, iż główną rolę będą w tym przypadku odgrywać tzw. Data Scientists, czyli badacze danych.  Blisko 10 lat temu, gdy rynek po raz pierwszy usłyszał o tym zawodzie, na portalu LinkedIn nie figurował żaden profil zawodowy, w którym ktokolwiek określiłby się jako takowy. Dziś sytuacja wydaje się nieco lepsza. Raport Forrestera podaje, iż obecnie w największym światowym serwisie rekrutacyjnym Indeed.com zaledwie 13%. ofert związanych z analizą danych dotyczy inżynierów danych, a zaledwie 1%. przeznaczonych jest dla właściwych badaczy danych[4].

Inżynier odkrywa wzorce w danych i powiązania między informacjami, które zostały zgromadzone jakiś czas temu po to, aby zidentyfikować trendy i ustalić wpływ wydarzeń rynkowych na sytuację firmy oraz wyjaśnić, dlaczego coś się stało. Jego rola ma zatem retro-aktywny charakter. Tymczasem praca badacza danych wiąże się z postawą proaktywną. Kluczowym pytaniem zadawanym przez Data Scientist jest “jak?”. Jak sprawić, że wydarzy się pożądany przez firmę scenariusz? Jakich danych użyć? Badacz danych to jeden z najtrudniejszych zawodów w świecie gospodarki cyfrowej – mówi Michał Grams. W 2018 roku będzie to najbardziej poszukiwana profesja w branży IT.

Rok setek tysięcy jezior

Rok 2018 będzie należał do tzw. data lakes. W stosunku do ubiegłego roku aż o 27 proc. więcej firm ankietowanych przez firmę Synscrot uważa integrowanie danych w „jeziora danych” za istotne[5]. Data lakes stanowią swoiste repozytorium, gdzie przechowywana jest ogromna ilość jeszcze nieprzetworzonych danych. W przeciwieństwie do hurtowni danych, gdzie zbiory są uporządkowane w plikach i folderach, w „jeziorach” stosuję płaską niezhierarchizowaną strukturę.

Koncepcja tzw. data lakes pozwala na szybką oraz bardzo zaawansowaną analizę danych nie tylko archiwalnych, ale nawet tych, które generowane są  w czasie rzeczywistym. Wprawdzie ich kompozycja ciągle się zmienia, a stosowanie technologii związanych z nimi wiąże się z wieloma wyzwaniami, jak np. dostosowanie do regulacji prawnych typu RODO czy umiejętność korzystania z nich. Mimo tego, jeziora sprawdzą się jako efektywna i optymalizująca koszty alternatywa wobec wolniejszych, aczkolwiek szeroko stosowanych systemów Business Intelligence – dodaje Michał Grams.

[1]Raport Forrester,  Predictions 2018: The Honeymoon For AI Is Over, https://www.forrester.com/report/Predictions+2018+The+Honeymoon+For+AI+Is+Over/-/E-RES139744

[2] Raport KPMG: Going beyond the data: Turning data from insights into value, https://home.kpmg.com/cn/en/home/insights/2015/06/going-beyond-the-data-turning.html

[3] Raport Forrester,  Predictions 2018: The Honeymoon For AI Is Over, https://www.forrester.com/report/Predictions+2018+The+Honeymoon+For+AI+Is+Over/-/E-RES139744

[4] Raport Forrester,  Predictions 2018: The Honeymoon For AI Is Over, https://www.forrester.com/report/Predictions+2018+The+Honeymoon+For+AI+Is+Over/-/E-RES139744

[5] 2018 Big Data Trends: Liberate, Integrate & Trust, 2018, http://www.syncsort.com/en/Resource-Center/BigData/eBooks/2018-Big-Data-Trends-Liberate-Integrate-Trust?utm_source=Referral&utm_medium=Press-Release