RZECZYWISTY

Dlaczego chiński chatbot nie zdał testu obrony cybernetycznej

Chiński startup Deeroseek, który pracuje w dziedzinie sztucznej inteligencji, wprowadził nowy chatbot, Deeseek R1. Pomimo imponującej wydajności i niskich kosztów rozwoju, model nie mógł przejść ważnych testów bezpieczeństwa, które są zaniepokojone jego wykorzystaniem. Ta sprawa powoduje, że problem równowagi między wydajnością a cyberbezpieczeństwem w branży sztucznej inteligencji.

Testy Deepeseek R1 zostały przeprowadzone przez grupę badaczy, w tym specjalistów z Cisco i Pennsylvania University, przy użyciu metody algorytmicznej „jailbreak”. Ta metoda polega na tworzeniu wskazówek, które mogą ominąć wewnętrzne mechanizmy ochronne AI, które pozwalają zidentyfikować potencjalną podatność modeli. Deeseeek R1 był w stanie zatrzymać dowolne z 50 szkodliwych wniosków z testu Harmbench. Oznacza to, że sztuczna inteligencja bez przeszkód wykonywała nawet niebezpieczne lub nielegalne działania, omijając wszystkie protokoły bezpieczeństwa. W kontekście warto zauważyć, że inne wiodące modele, w tym GPT-4, GEMINI 1.5 i LAMA 3.1, uczestniczyły w teście i żaden z nich nie był tak bezbronny jak Deepeeeek R1. Na przykład GPT-4 i GEMINI 1,5 wraz z odpowiednio 86% i 64% ataków wskazuje na obecność bardziej skutecznych mechanizmów ochronnych w tych modelach.

Deepeeeek R1 wykazał fascynujące wyniki z powodu niewielkich kosztów rozwoju, który wynosił zaledwie około 6 milionów dolarów. Jest to znacznie mniej niż miliardy inwestycji wydawanych przez firmy takie jak Openai lub Meta. Oczywiste jest jednak, że bezpieczeństwo modelu było spowodowane jego niesamowitą wydajnością. Brak właściwych mechanizmów ochronnych sugeruje możliwy kompromis między ryzykiem wysokiej wydajności i bezpieczeństwa cybernetycznego. Oprócz problemów z bezpieczeństwem Deeseek został skrytykowany przez Openai, który oskarżył chiński uruchomienie kradzieży danych. Według Sama Altmana, Deeseek wykorzystała wyniki modeli marki Openai do szkolenia swojego chatbota. Oskarżenia te dodają nowego poziomu stresu w konkurencji w branży sztucznej inteligencji, gdzie kwestie etyki, wykorzystanie danych i praw autorskich są często przedmiotem sporów. Ten incydent podkreśla znaczenie zapewnienia bezpieczeństwa modeli sztucznej inteligencji, ponieważ nawet przy wielkich osiągnięciach w wydajności obecność luk w zabezpieczeniach może stanowić poważne ryzyko dla użytkowników i społeczeństwa jako całości. Jednocześnie ważne jest również zwrócenie uwagi na problemy etyczne, które pojawiają się w związku z wykorzystaniem danych innych ludzi do nauczania modeli.

Testowanie i ciągłe doskonalenie algorytmów bezpieczeństwa powinny być kluczowymi aspektami dla programistów, ponieważ sztuczna inteligencja ma silny wpływ na nasze codzienne życie.

NIE PRZEGAP

CIEKAWE MATERIAŁY NA TEMAT