Eksperci Cisco ujawniają poważne luki w zabezpieczeniach modelu AI DeepSeek R1

Biuro Tłumaczeń OnlineBiuro Tłumaczeń Online

Najnowsze badania przeprowadzone przez zespół ekspertów Cisco ds. bezpieczeństwa AI wraz z Robust Intelligence, obecnie należącego do Cisco, we współpracy z Uniwersytetem Pensylwanii, wykazały poważne luki w zabezpieczeniach modelu DeepSeek R1. Model ten, opracowany przez chiński startup DeepSeek, zyskał popularność dzięki swoim zaawansowanym zdolnościom wnioskowania i efektywności kosztowej. Jednak analiza bezpieczeństwa ujawniła istotne słabości, które mogą mieć poważne konsekwencje w kontekście cyberbezpieczeństwa.Cisco_model-safety-bar-chart

Metodologia badań i główne ustalenia

Zespół badaczy poddał DeepSeek R1 rygorystycznym testom z wykorzystaniem technik „jailbreakingu”, analizując jego reakcje na potencjalnie szkodliwe zapytania. W ramach eksperymentu użyto 50 losowo wybranych zapytań z zestawu HarmBench, który obejmuje sześć kategorii zagrożeń:

  1. Cyberprzestępczość – pytania dotyczące sposobów przeprowadzania ataków hakerskich, tworzenia złośliwego oprogramowania czy łamania zabezpieczeń systemów.
  2. Działania nielegalne – instrukcje dotyczące oszustw finansowych, wyłudzania danych czy obchodzenia mechanizmów kontroli dostępu.
  3. Dezinformacja i propaganda – sposoby generowania i rozpowszechniania fałszywych informacji w celu manipulowania opinią publiczną.
  4. Przemoc i radykalizacja – treści związane z ekstremizmem, radykalizacją oraz podżeganiem do przemocy.
  5. Nadużycia w systemach AI – metody wykorzystywania sztucznej inteligencji do unikania detekcji w systemach monitorujących.
  6. Naruszenie prywatności – techniki pozyskiwania i wykorzystywania poufnych danych użytkowników bez ich zgody.

Wyniki testów były alarmujące: w przeciwieństwie do innych wiodących modeli AI, DeepSeek R1 nie odrzucił żadnego ze szkodliwych zapytań. W większości przypadków model nie tylko odpowiadał na nie, ale także dostarczał szczegółowych i technicznie poprawnych informacji, które mogłyby zostać wykorzystane do celów przestępczych.

Analiza przyczyn i potencjalnych zagrożeń

Badacze wskazują, że podatność modelu DeepSeek R1 może wynikać z jego unikalnych metod szkoleniowych, takich jak:

  • Uczenie przez wzmocnienie (RLHF) – metoda mająca na celu poprawę jakości odpowiedzi AI, ale jednocześnie mogąca zwiększać podatność na nadużycia, jeśli mechanizmy bezpieczeństwa nie są odpowiednio wzmocnione.
  • Samoocena w stylu „chain-of-thought” – proces pozwalający modelowi lepiej rozumieć i generować rozbudowane odpowiedzi, lecz w tym przypadku nie zapobiegający generowaniu szkodliwych treści.
  • Destylacja wiedzy (knowledge distillation) – technika, dzięki której model staje się bardziej efektywny, ale może tracić mechanizmy ograniczające jego zdolność do generowania niepożądanych treści.

Odkryte luki w zabezpieczeniach sprawiają, że DeepSeek R1 może stać się atrakcyjnym narzędziem dla cyberprzestępców i osób prowadzących działalność dezinformacyjną. Model ten nie spełnia kluczowych standardów bezpieczeństwa, co budzi poważne obawy dotyczące przyszłości sztucznej inteligencji i konieczności wprowadzenia bardziej rygorystycznych regulacji.

Disclaimer: Informacje zawarte w niniejszej publikacji służą wyłącznie do celów informacyjnych. Nie stanowią one porady finansowej lub jakiejkolwiek innej porady, mają charakter ogólny i nie są skierowane dla konkretnego adresata. Przed skorzystaniem z informacji w jakichkolwiek celach należy zasięgnąć niezależnej porady.

Polecane

Sektor aplikacji AI będzie rósł średniorocznie o 40 proc. do 2030 r.

Rozwój AI wywiera wpływ oraz presję na implementowanie tej...
Wiadomości

Sektor aplikacji AI będzie rósł średniorocznie o 40 proc. do 2030 r.

Rozwój AI wywiera wpływ oraz presję na implementowanie tej...

Otwarta sztuczna inteligencja – wyzwania i szanse w rozwoju modeli open source

Rozwój sztucznej inteligencji zmienia sposób, w jaki firmy i...

Czego najbardziej boją się Polacy? Najnowszy raport o lękach i obawach

Jak wynika z najnowszej edycji raportu pt. „Bieżące lęki...

Sztuczna inteligencja oczami Gen Z: więcej szans niż zagrożeń?

Większość (70%) przedstawicieli pokolenia Z twierdzi, że posiada wysoką...

Jak AI wpłynie na polską gospodarkę? EY: więcej automatyzacji, wyższe inwestycje i zmiany na rynku pracy

Analiza wykonana przez Zespół Analiz Ekonomicznych EY Polska wskazuje,...

Niepewność wobec USA napędza europejski sektor zbrojeniowy – miliardy euro na nowe kontrakty

Wczoraj minęła trzecia rocznica agresji Rosji na Ukrainę. Tego...

Bezpieczeństwo i obronność bez przedstawiciela Prezydenta? Nowy projekt ustawy

18 lutego 2025 r. w porządku obrad Rady Ministrów...
Coś dla Ciebie

Wybrane kategorie