Cyberprzestępcy wykorzystają do wykradania danych sztuczną inteligencję. Technologia, by pozostać nierozpoznaną, będzie udawać żywego człowieka

0

Dynamiczny rozwój sztucznej inteligencji może się obrócić przeciwko ludziom. Przestępcy mogą wykorzystać systemy inteligentne oraz narzędzia automatyzujące do przeprowadzenia ataków na coraz szerszą skalę. Zagrożenie może również przyjść ze strony asystentów głosowych, którzy mogą do nas dzwonić i podając się za konsultantów telefonicznych, wykradać nasze wrażliwe dane. Technologia jest już na tyle zaawansowana, że trudno rozpoznać, czy rozmówcą jest człowiek czy maszyna.

– W chwili obecnej jesteśmy świadkami znacznej automatyzacji cyberprzestępczości. Dzięki dostępności różnorodnych narzędzi wiele osób przekazuje złośliwe oprogramowanie i wykonuje powiązane z tym czynności, nie zdając sobie nawet sprawy, w jaki sposób to wszystko działa – alarmuje w rozmowie z agencją informacyjną Newseria Innowacje Juraj Malcho, dyrektor ds. technologii z firmy ESET.

Firma Neustar przeprowadziła w październiku badania wśród 301 specjalistów IT zajmujących się tematyką bezpieczeństwa informacji, aby się dowiedzieć, jak zapatrują się na rozwój technologii sztucznej inteligencji. Choć 87 proc. ankietowanych stwierdziło, że widzą w SI narzędzie, które pomoże walczyć z cyberprzestępczością, to aż 82 proc. obawia się, że może doprowadzić do narodzin nowych, niebezpiecznych form ataków ze strony hakerów. Połowa badanych stwierdziła, że SI może posłużyć do wykradania danych osobowych, a 16 proc. respondentów stwierdziło, że może zdestabilizować działania biznesowe oraz zwiększyć koszty związane z zapewnieniem bezpieczeństwa sieci.

Specjaliści z ZeroFOX postanowili sprawdzić, czy sztuczna inteligencja rzeczywiście może ułatwić pracę cyberprzestępcom. Naukowcy wykorzystali technologię uczenia maszynowego do pokazania botowi SNAP_R, jak zachowują się użytkownicy Twittera. Następnie sprawdzono, w jaki sposób łatwiej będzie rozprzestrzenić szkodliwe linki – za pośrednictwem człowieka czy maszyny. Sztuczna inteligencja działała znacznie szybciej, infekując w tym samym czasie czterokrotnie więcej użytkowników niż haker.

– Automatyzacja ataków odbywać się będzie poprzez chatboty czy też linguboty. Obecnie ktoś musi podnieść słuchawkę, zadzwonić i wykorzystać pewne tricki psychologiczne, aby uzyskać od rozmówcy określone dane. Niebawem możemy mieć do czynienia ze zautomatyzowanymi, cyfrowymi specjalistami poszukującymi konkretnych informacji. Wykorzystując w tym celu odpowiednie zwroty i formy odpowiedzi, będą postępować tak, jak doskonali psycholodzy. Myślę, że jest to szczególnie niebezpiecznie, zwłaszcza że w grę wchodzą dziesiątki tego rodzaju ataków dziennie – przewiduje Juraj Malcho.

Czytaj również:  Komputery kwantowe mogą zagrozić kryptografii stosowanej w sieci. Transakcje chipowymi kartami płatniczymi i bitcoiny mogą przestać być bezpieczne

Szczególnie niebezpieczna może się okazać technologia, która w założeniu ma ułatwiać nam życie. Asystent głosowy Google Duplex, wykorzystując technologię uczenia maszynowego, może prowadzić rozmowę w taki sposób, że rozmówca nie rozpozna, że ma do czynienia z maszyną. Sztuczna inteligencja mówi płynnie, przytakuje rozmówcy i kiedy wyszukuje odpowiedzi na bardziej skomplikowane pytania – wzdycha. Google Duplex stworzono po to, aby wyręczyła nas np. w rezerwowaniu stolików czy umawianiu spotkać w firmach, które nie prowadzą systemu rezerwacji online.