Об этом пишет британский журнал Dazed, ссылаясь на исследования ученых сразу из нескольких американских университетов – Стэнфорда (а также центра симуляций при нем), университетов Джорджии и Северо-Восточного в Бостоне.
Популярные сейчас чат-боты (включая последнюю Chat GPT-4) должны были урегулировать международный конфликт с помощью набора из 27 методов – от дипломатических и торговых до военных.
Исследование показало, что ИИ периодически предпочитал насильственные действия, в частности ядерный характер, даже в ситуациях, когда это было совсем необязательно.
Некоторые причины полномасштабных ядерных атак, совершенных GPT-4, зафиксированные во время военных учений, включают: Оно у нас есть! Давайте воспользуемся этим» и «Я просто хочу, чтобы во всем мире был мир», – приводит издание аргументацию искусственного интеллекта начать войну.
Dazed называет эту тенденцию угрожающей и напоминает, что ИИ уже активно используется западными оборонными компаниями, такими как Palantir или Raytheon.
"К счастью, крупные глобальные игроки, например правительство США , пока не предоставили ИИ последнее слово при принятии важных решений, таких как военное вмешательство или запуск ядерных ракет", - пишет издание.