Technologia uczenia maszynowego przyspieszy proces przetwarzania informacji. Wykorzystuje się ją już w walce z fake newsami czy do rozpoznawania chorób we wczesnej fazie rozwoju

0

Upowszechnienie się sztucznej inteligencji pozwoliło przerzucić żmudny proces analizy dużych zasobów informacji na algorytmy komputerowe. Zastosowanie technologii uczenia maszynowego pozwala wyszkolić sztuczną inteligencję do specjalistycznych zadań analitycznych i wychwytywania wzorów w ramach big data. Tworzy się też algorytmy predykcyjne, które umożliwią m.in. rozpoznawanie fake newsów, zautomatyzowanie procesu wykrywania nowych wirusów czy rozpoznawania chorób w ich wczesnej fazie rozwoju.

– Problem analizy danych to problem bardzo ogólny. Z jednej strony mamy bardzo popularne przykłady jak rozpoznawanie zdjęć. To bardzo dobrze robi np. platforma Google. Ale mamy też wyzwania bardziej skomplikowane, np. odróżnianie newsów prawdziwych od fałszywych. I do tego też można podejść jako do zadania analitycznego: zgromadzić fałszywe i prawdziwe newsy i próbować wytrenować algorytmy sztucznej inteligencji, żeby nauczyły się odróżniać rzeczy prawdziwe od fałszywych. A potem ostrzegać nas przed tymi fałszywymi – mówi agencji informacyjnej Newseria Innowacje dr hab. Dominik Ślęzak pracownik Instytutu Informatyki Uniwersytetu Warszawskiego, prezes firmy QED Software.

Systemy zautomatyzowanej analizy danych zyskują na popularności. Ze sztucznej inteligencji wyszkolonej metodą uczenia maszynowego korzystamy na co dzień np. podczas wyszukiwania zdjęć. Algorytmy Google analizują obrazy zindeksowane w sieci, rozpoznając na nich kluczowe elementy i dopasowując je do naszego zapytania. Z tą technologią eksperymentuje także firma NVIDIA, która rozwija projekt generatywnej sieci neuronowej (GAN) wyspecjalizowanej w analizie i przetwarzaniu obrazu. Inżynierowie szkolą sztuczną inteligencję do interpretowania wzorców wizualnych, które służą do generowania fotorealistycznych obrazów.

Technologię GAN wykorzystano m.in. do tworzenia twarzy nieistniejących osób, modelowania trójwymiarowych obiektów na bazie nagrań czy tworzenia zdjęć krajobrazów na podstawie prostych szkiców.

– Medycyna, bankowość, przemysł – te aspekty, żeby rozpoznawać i odróżniać pewne rzeczy na podstawie danych są popularne w niemal każdej dziedzinie – przekonuje Dominik Ślęzak.

Stworzona przez QED Software platforma Knowledge Pit ma unaocznić potencjał tej technologii. Ma ona formę platformy konkursowej, na której różne firmy mogą przetestować swoje algorytmy analizy informacji. Przedstawiciele różnych gałęzi przemysłu wystawiają na niej dane big data, a zadaniem uczestników platformy jest opracowanie algorytmów predykcyjnych, które będą w stanie wyciągnąć z nich przydatne informacje i odpowiednio je skatalogować. Najefektywniejsze algorytmy mogą być wdrożone przez przedsiębiorstwa.

Platforma Knowledge Pit powstała po to, aby połączyć ze sobą ekspertów od uczenia maszynowego z firmami, które nie wiedzą, w jaki sposób przetwarzać dane w ramach big data.

– W tej chwili organizujemy konkurs we współpracy z firmą z dziedziny cyberbezpieczeństwa. Na podstawie danych ściąganych od swoich klientów ma rozpoznawać ataki internetowe. Celem konkursu jest rozpoznawać na podstawie danych, czy sekwencja zapisów, operacji sieciowych jest atakiem internetowym czy nie. W momencie, gdyby udało się opracować taki model, który odróżnia zwyczajną aktywność sieciową od tej podejrzanej, można wówczas ten model zastosować i pomóc takiej firmie w analizie nowo napływających danych – mówi ekspert.

Czytaj również:  Budowa 5G przyspieszy w przyszłym roku. Nowa sieć może przynieść duże oszczędności dla małego i średniego biznesu

Sztuczna inteligencja wyspecjalizowana w precyzyjnym wyszukiwaniu wzorców może być użyteczna niemal w każdym sektorze gospodarki. Inżynierowie Amazona wykorzystują ją nie tylko w procesie personalizacji reklam. Dzięki technologii uczenia maszynowego udało im się opracować m.in. oprogramowanie do rozpoznawania nieczytelnego pisma lekarzy. Program nie tylko jest w stanie odczytać niewyraźne zapiski, wyszkolono go także w słownictwie medycznym, dzięki czemu radzi sobie z przepisywaniem recept oraz diagnoz zapisanych odręcznie na pismo maszynowe.

Ciekawym przykładem wykorzystania big data jest współpraca podjęta pomiędzy Family Tree DNA a amerykańskim Federalnym Biurem Śledczym. Firma specjalizująca się w analizie DNA udostępniła FBI anonimowe dane genetyczne swoich klientów, które mogą posłużyć agentom federalnym do odnalezienia przestępców, których nie udało się zlokalizować za pośrednictwem klasycznych metod śledczych.

Z kolei naukowcy z Uniwersytetu Nowego Jorku oraz SRI International opracowali algorytm, który jest w stanie rozpoznać w próbce głosu symptomy zespołu stresu pourazowego. Badacze wyszkolili sztuczną inteligencję przy wykorzystaniu 40 tys. próbek głosowych 129 weteranów wojennych, którzy zmagali się z tym schodzeniem. Dzięki temu udało się stworzyć oprogramowanie, które z 89 proc. skutecznością jest w stanie wskazać objawy PTSD, analizując wyłącznie nagranie dźwiękowe głosu pacjenta.

Na podobnej zasadzie działają inne sztuczne inteligencje stworzone z myślą o branży medycznej. Prezentuje im się duże zasoby danych opisujących osoby cierpiące na jakieś schorzenie, a następnie wykorzystuje się technologię uczenia maszynowego, aby odnaleźć wzorce w big data, które pozwolą stworzyć algorytmy automatycznie rozpoznające symptomy choroby.

– Dane są już używane, żeby np. przewidywać, czym się interesujemy, żeby proponować nam różnego rodzaju produkty w reklamach online. Ale również żeby nam pomagać np. przewidywać schorzenia, sugerować możliwości terapii, doradzać na różne sposoby. Świat danych już z nami zostanie, tych danych będzie coraz więcej i za tym muszą iść dobre i dobrze stosowane narzędzia analizy danych – podsumowuje ekspert.

Według Allied Market Research wartość globalnego rynku sztucznej inteligencji wzrośnie do 169,4 mld w 2025 roku, wykazując średnioroczne tempo wzrostu na poziomie 55,6 proc.