АКТУАЛЬНО

Искусственный интеллект более склонен применять ядерное оружие во время моделирования войны

Об этом пишет британский журнал Dazed, ссылаясь на исследования ученых сразу из нескольких американских университетов – Стэнфорда (а также центра симуляций при нем), университетов Джорджии и Северо-Восточного в Бостоне.

Популярные сейчас чат-боты (включая последнюю Chat GPT-4) должны были урегулировать международный конфликт с помощью набора из 27 методов – от дипломатических и торговых до военных.

Исследование показало, что ИИ периодически предпочитал насильственные действия, в частности ядерный характер, даже в ситуациях, когда это было совсем необязательно.

Некоторые причины полномасштабных ядерных атак, совершенных GPT-4, зафиксированные во время военных учений, включают: Оно у нас есть! Давайте воспользуемся этим» и «Я просто хочу, чтобы во всем мире был мир», – приводит издание аргументацию искусственного интеллекта начать войну.

Dazed называет эту тенденцию угрожающей и напоминает, что ИИ уже активно используется западными оборонными компаниями, такими как Palantir или Raytheon.

"К счастью, крупные глобальные игроки, например правительство США , пока не предоставили ИИ последнее слово при принятии важных решений, таких как военное вмешательство или запуск ядерных ракет", - пишет издание.

НЕ ПРОПУСТИТЕ

АКТУАЛЬНЫЕ НОВОСТИ ПО ТЕМЕ