АКТУАЛЬНО

OpenAI досліджуватиме ризики, пов’язані з ШІ

OpenAI створила спеціальну “групу готовності”, яка займатиметься дослідженням і управлінням “катастрофічними” ризиками, пов’язаними зі штучним інтелектом. Групу очолюватиме директор Центру розгортання машинного навчання Массачусетського технологічного інституту (MIT) Александр Мадрі, який приєднався до компанії OpenAI в травні.

Основні завдання нової команди передбачають моніторинг, прогнозування та захист від потенційних загроз, пов’язаних із розвитком штучного інтелекту. Ці загрози охоплюють здатність ШІ переконувати і обманювати людей, створення шкідливого коду та інші потенційні небезпеки.

Крім цього, OpenAI проводить конкурс, у рамках якого збирає ідеї та дослідження з управління ризиками. Автори найкращих пропозицій отримають приз у розмірі $25,000 і можливість приєднатися до групи готовності.

OpenAI закликає вчених і дослідників разом із компанією розробити політику розвитку з урахуванням ризиків, яка детально описуватиме підхід до оцінювання та моніторингу моделей штучного інтелекту, а також кроки зі зниження ризиків і структуру управління в цьому процесі.

Сем Альтман, генеральний директор OpenAI, висловив занепокоєння з приводу потенційних ризиків, пов’язаних із розвитком штучного інтелекту, і наголосив на важливості забезпечення безпеки високопродуктивних систем ШІ.

НЕ ПРОПУСТІТЬ

ЦІКАВІ МАТЕРІАЛИ ЗА ТЕМОЮ