Rosyjscy hakerzy wykorzystują ChatGPT do generowania złośliwych wiadomości

ChatGPT
  • Użytkownicy podziemnych forów już dzielą się wskazówkami jak używać ChatGPT do tworzenia oprogramowania ransomware. Sztuczna inteligencja pomaga również rosyjskim hakerom w tworzeniu e-maili phishingowych
  • Ekspert zaznacza, że firmy takie jak OpenAI mogą być prawnie zmuszone do szkolenia swojej sztucznej inteligencji w celu wykrywania nadużyć służących przestępcom. Na razie nic takiego nie ma miejsca, a ograniczenia wprowadzane przez twórców sztucznej inteligencji można zwykle łatwo obejść.

Użytkownicy podziemnych forów już dzielą się wskazówkami jak używać ChatGPT do tworzenia oprogramowania ransomware. Sztuczna inteligencja pomaga również rosyjskim hakerom w tworzeniu e-maili phishingowych – informują analitycy Check Point Research. Można się zastanawiać, czy przełomowe narzędzie ChatGPT przynosi więcej korzyści czy zagrożeń.

Eksperci bezpieczeństwa cybernetycznego alarmują, że aplikacja ChatGPT, która stała się wiralowa w zaledwie kilka dni po jej grudniowej premierze, może kodować złośliwe oprogramowanie zdolne do rejestrowania uderzeń klawiatury użytkowników lub tworzenia oprogramowania ransomware. Do tej porty narzędzia zakodowane w ChatGPT wyglądały na „dość proste”, jednak eksperci firmy Check Point Research zauważają, że jest to tylko kwestia czasu, zanim bardziej „wyrafinowani” hakerzy znajdą sposób na obrócenie sztucznej inteligencji na swoją korzyść.

Specjaliści bezpieczeństwa cybernetycznego wyrażają obawy, że narzędzie może nie tylko tworzyć kod, który kradnie dane ofiar, a być również używane do tworzenia stron internetowych i botów, które nakłaniają użytkowników do udostępniania ich poufnych danych. ChatGPT może szeroko rozpowszechnić tworzenie i personalizację złośliwych stron internetowych, wysoce ukierunkowanych kampanii phishingowych oraz innych oszustw opartych na socjotechnice.

Sergey Shykevich, analityk firmy Check Point Software, twierdzi, że ChatGPT będzie również „świetnym narzędziem” dla np. rosyjskich hakerów, którzy nie są biegli w języku angielskim, do tworzenia wiarygodnie wyglądających e-maili phishingowych.

– Cyberprzestępcy coraz bardziej interesują się ChatGPT, ponieważ stojąca za nim technologia sztucznej inteligencji może sprawić, że haker będzie bardziej wydajny – zauważa Sergey Shykevich, menedżer działu wywiadu zagrożeń w Check Point Software.

Ekspert zaznacza, że firmy takie jak OpenAI mogą być prawnie zmuszone do szkolenia swojej sztucznej inteligencji w celu wykrywania nadużyć służących przestępcom. Na razie nic takiego nie ma miejsca, a ograniczenia wprowadzane przez twórców sztucznej inteligencji można zwykle łatwo obejść.

– Nie jest trudno ominąć ograniczenia OpenAI dla określonych krajów, aby uzyskać dostęp do ChatGPT. W tej chwili widzimy, jak rosyjscy hakerzy już dyskutują i sprawdzają, jak ominąć geofencing, aby wykorzystać ChatGPT do działań o charakterze kryminalnym. Uważamy, że próbują oni wdrożyć i przetestować ChatGPT w swoich codziennych operacjach przestępczych – ostrzega ekspert Check Point.

Według izraelskiej firmy, podziemne fora przestępcze przedstawiają oferty kodów napisanych przez ChatGPT, które przechwytują interesujące nas pliki, kompresują je i przesyłają przez sieć. Co więcej, istnieją nowe narzędzia, które instalują backdoora na komputerze i mogą przesyłać dalsze złośliwe oprogramowanie na zainfekowany komputer.