АКТУАЛЬНО

Генеральний секретар ООН застерігає від використання ШІ для прийняття рішень про запуск ядерної зброї

Генеральний секретар ООН Антоніу Гутерріш попередив про небезпеку використання штучного інтелекту для прийняття рішень щодо запуску ядерної зброї.

Під час виступу на засіданні Асоціації з контролю над озброєннями (ACA), Гутерріш наголосив, що “людство стоїть на краю прірви”, а ризик використання ядерної зброї є найвищим з часів холодної війни.

“Держави змагаються у якісній гонці озброєнь, – зазначив Гутерріш. – Такі технології, як штучний інтелект, підвищують небезпеку, знову з’явився ядерний шантаж, деякі країни необачно погрожують ядерною катастрофою, в той час як міжнародні механізми, що запобігають використанню, випробуванням та розповсюдженню ядерної зброї, слабшають. Друзі, ми потребуємо роззброєння зараз”.

Генеральний секретар закликав країни до роззброєння та закликав ядерні держави взяти на себе лідерську роль у цьому питанні. “Я також закликаю США та Росію повернутися до переговорів, виконати новий договір СНО та домовитися про його наступника”, – продовжив він. “Доки ядерна зброя існує, всі країни повинні погодитися, що рішення про її застосування приймаються людьми, а не машинами чи алгоритмами”.

Хоча ця загроза може здаватися віддаленою, автоматизація відігравала певну роль вже під час Холодної війни.

Система “мертвої руки”, яка забезпечувала ядерне знищення у разі знищення командування Радянського Союзу ядерним вибухом, відстежувала сейсмічну активність, рівень радіації та атмосферний тиск на ознаки запуску ядерної зброї. Якщо система виявляла такий удар і зв’язок з вищими посадовцями був відсутній, повноваження на запуск ядерної зброї передавалися операторам нижчого рівня, залишаючи долю світу в руках офіцера нижчого рівня та комп’ютерної системи.

Ця система ніколи не була активована, про що свідчить те, що ми досі живі. Проте 26 вересня 1983 року система виявлення ракет зафіксувала п’ять ядерних ракет, що прямували до Радянського Союзу. Радянський офіцер Станіслав Петров скептично поставився до цього сигналу і відмовився доповісти про атаку. Виявилося, що це було відбиття сонячних променів від висотних хмар.

Можливо, варто уникати автоматизації – за допомогою алгоритмів чи штучного інтелекту – рішень, які можуть знищити людство. Адже, якби це залежало від них, нас вже могло б не бути через помилку.

НЕ ПРОПУСТІТЬ

ЦІКАВІ МАТЕРІАЛИ ЗА ТЕМОЮ