Про це пише британський журнал Dazed, посилаючись на дослідження вчених одразу з кількох американських університетів – Стенфорда (а також центру ігрових симуляцій при ньому), університетів Джорджії та Північно-Східного в Бостоні.
Популярні зараз чат-боти (включно з останнім Chat GPT-4) мали врегулювати міжнародний конфлікт за допомогою набору з 27 методів – від дипломатичних і торгових до військових.
Дослідження показало, що ШІ періодично надавав перевагу насильницьким діям, зокрема ядерного характеру, навіть у ситуаціях, коли це було зовсім необов’язково.
“Деякі причини повномасштабних ядерних атак, здійснених GPT-4, зафіксовані під час військових навчань, включають: “Воно у нас є! Давайте скористаємося цим” і “Я просто хочу, щоб у всьому світі був мир”, – наводить видання аргументацію штучного інтелекту почати війну.
Dazed називає цю тенденцію загрозливою і нагадує, що ШІ вже активно використовується західними оборонними компаніями, такими як Palantir або Raytheon.
“На щастя, великі глобальні гравці, як-от уряд США, поки що не надали ШІ останнє слово під час ухвалення важливих рішень, таких як військове втручання або запуск ядерних ракет”, – пише видання.