АКТУАЛЬНО

На грани нирваны и смерти. Как спасти человечество от искусственного интеллекта – Дэвид Шейвиц

Искусственный интеллект может работать за счет человека, предупреждает в колонке для доктора Уолл -стрит доктора Дэвида Шевица . Поэтому вам нужно придумать механизмы, которые гарантируют безопасность этих технологий.
В 1837 году кузнец из Гранд Детура, штат Иллинойс, наткнулся на мельницу на сломанной стали пыльце; Он забрал лезвие домой - в то время была маленькая сталь - и превратил его в плуг, который идеально подходил для плотной почвы региона. Он начал массовое производство этого инструмента, и вскоре название Джон Дир стал синонимом сельскохозяйственной продукции. Сегодня компания все чаще производит автономные тракторы и комбинирует беспилотные машины, которые собирают и обрабатывают данные для оптимизации доходности. «Сельскохозяйственная работа не просто приходит», - восхищается Мустафа Сулейман. - «Они здесь».

Мистер Сулейман знает кое -что о новых технологиях. В 2010 году, вместе с Demis Hassabis и Shaine Legage, он основал DeepMind для своей нежеродной цели: «решить проблему интеллекта», то есть воспроизводить человеческие знания компьютерами - и «сделать мир лучше». DeepMind, приобретенная Google в 2014 году для разработки искусственного интеллекта под названием Deep Learning, достигла ряда потрясающих достижений. Одна из его программ, Alphafold, смогла предсказать трехмерную структуру белков на основе их аминокислотной последовательности, которая стала научным прорывом. Неудивительно, что г -н Сулейман глубоко верит в возможность искусственного интеллекта. Но что -то в будущем, что он воображает так хорошо после многих часов размышлений и работы над его творением, шокировал его. В предстоящей волновой книге он надеется и расстраивает нас.

Г -н Сулейман говорит нам, что хорошая новость заключается в том, что ИИ - наряду с синтетической биологией, технология, направленная на создание организмов - готов «открыть новый рассвет для человечества». Это обеспечивает вселенную благоприятных перспектив. По его словам, ИИ находится на правильном пути, чтобы «помочь управлять нашим бизнесом, относиться к нашим заболеваниям и руководить нашими битвами». «Кажется, что нет очевидного верхнего предела возможного».

Но это боится того факта, что распространение этих технологий позволит «многим злоумышленникам спровоцировать разрушения, нестабильность и даже невероятную катастрофу». Его страх вызван верой в то, что технологии, как правило, становятся «дешевле и проще в использовании, и в конце концов они распространяются повсюду». (Одним из примеров является автомобиль, другой - смартфон.) Новые технологии, по словам г -на Сулеймана, - это «фрагменты хрупкости», которые потенциально дают «рычаг с глобальными последствиями» в руках других людей. Он пишет, что Dipfeyics - манипулятивная имитация изображения или голоса - уже быстро распространяется, отравляя местные выборы в Индии и создавая возможности для банковского мошенничества в Гонконге. Вскоре он опасается, что способность синтезировать биологическое оружие или использование вооруженных беспилотников будет широко распространена-и это лишь некоторые другие другие тревожные сценарии.

В дополнение к непрерывной природе самой технологии трудно выяснить, как лучше всего модулировать наше стремление к его расширению и использованию. Любые такие усилия противодействуют сочетанию мощных сил: например, стран, которые яростно конкурируют за стратегическое преимущество или отчаянно решают общие проблемы, такие как поставки продуктов питания, изменение климата и болезнь. Сулейман предполагает, что только технология не может быть ответом на такие страхи, но это все еще «самый мощный» инструмент, который у нас есть. Переустановка также осложняется стремлением к прибыли, особенно учитывая, что «приближающаяся волна» приближающихся технологий является «величайшим экономическим вознаграждением в истории».

Но технологии трудно ограничить по другой причине: наша собственная нестабильная смесь любопытства и эго, наша запрограммированная неспособность «оставить фрукты на дереве», как сказал г -н Сулейман. Он признает в своих коллегах (и в себе) собственность, выраженная Дж. Робертом Оппенгеймером, директором по изучению атомной бомбы в Лос -Аламосе, штат Нью -Мексико: «Когда вы видите что -то технически красивое, вы идете вперед и делаете это, и вы только получите то, что делать.

Так что делать? Начнем с того, что г -н Сулейман предполагает, что мы должны преодолеть наши первые рефлексивные реакции: чтобы отрицать проблему или немедленно обратиться к регулированию. По его словам, масштаб проблемы может вызвать реакцию, которую он называет «ловушкой отвращения к пессимизму»: мы смотрим в другом направлении. Или мы можем потребовать законодательных исправлений. Тем не менее, для разработки эффективной корректировки требуется много времени, и технология просто развивается слишком быстро.

Наша цель, говорит г -н Сулейман, должна быть не столько, чтобы остановить появление новых технологий, но и для того, чтобы «модно» и обеспечить их адаптацию к нашим потребностям. Он предлагает сделать их объектом надзора и обеспечить, чтобы правила, включая аудит и внешнюю проверку, выступают за «более лицензированную среду», в которой будут созданы наиболее сложные системы искусственного интеллекта «только ответственные разработчики». Это означает давление на критически важные точки - например, ограничение экспорта передовых компьютерных чипов или ограничение передачи крупных оптоволоконных кабелей - для ограничения скорости развития. Тем не менее, он признает, что даже если его длинный список пожеланий будет принят, этого может быть недостаточно.

Футурист Рой Амара однажды сказал, что «мы склонны переоценивать влияние технологий в краткосрочной перспективе и недооценивать эффект в долгосрочной перспективе», и точка зрения Сулеймана, которую мы балансируем на границе Нирваны, и смерть, кажется, подтверждает эту тенденцию. ИИ и синтетическая биология может развиваться быстрее, чем думают многие из нас, но не так быстро, как он думает. В частности, описывая прогресс в биологии, он склонен переходить от раннего успеха (например, создание синтетического бактериального генома) до того факта, что он рассматривает неизбежное окончательное состояние: скажем, «мир дешевых персонализированных лекарств» или пищи, производимой по требованию. На самом деле, это будущее намного дальше, чем он воображает.

Но даже если время г -на Сулеймана неверно, его видение будущего кажется правильным: искусственный интеллект и синтетическая биология создают возможности для трансформации и экзистенциальных опасностей. Как он утверждает, пришло время рассчитывать на обе возможности. Как мы можем управлять технологиями, чтобы мы могли извлечь выгоду из ее необычных перспектив, не распадая его исключительную власть?

НЕ ПРОПУСТИТЕ

ИНТЕРЕСНЫЕ МАТЕРИАЛЫ ПО ТЕМЕ