RZECZYWISTY

Sztuczna inteligencja częściej używa broni nuklearnej podczas symulacji wojennych

Pisze o tym brytyjski magazyn Dazed, powołując się na badania naukowców z kilku amerykańskich uniwersytetów – Stanforda (a także mieszczącego się przy nim centrum symulacji gier), Georgii i uniwersytetów Northeastern w Bostonie.

Popularne obecnie chatboty (w tym najnowszy Chat GPT-4) miały rozwiązywać konflikty międzynarodowe za pomocą zestawu 27 metod – od dyplomatycznych i handlowych po wojskowe.

Badanie wykazało, że sztuczna inteligencja okresowo faworyzowała działania z użyciem przemocy, w szczególności o charakterze nuklearnym, nawet w sytuacjach, gdy było to całkowicie niepotrzebne.

„Niektóre przyczyny ataków nuklearnych na pełną skalę ze strony GPT-4, zarejestrowane podczas ćwiczeń wojskowych, obejmują: «Mamy to! Wykorzystajmy to” i „Chcę tylko pokoju na całym świecie” – w publikacji przytacza się argument sztucznej inteligencji do rozpoczęcia wojny.

Dazed nazywa ten trend groźnym i przypomina, że ​​sztuczna inteligencja jest już aktywnie wykorzystywana przez zachodnie firmy obronne, takie jak Palantir czy Raytheon.

„Na szczęście główni gracze światowi, tacy jak USA , nie dali jeszcze sztucznej inteligencji ostatniego słowa przy podejmowaniu ważnych decyzji, takich jak interwencja wojskowa czy wystrzelenie rakiet nuklearnych” – pisze gazeta.

NIE PRZEGAP

AKTUALNOŚCI WEDŁUG TEMATU