АКТУАЛЬНО

Прошел год, и ChatGPT уже выполняет все наши пожелания

Один из первых вопросов, который я задал ChatGPT в начале этого года, касался меня самого: "Что вы можете рассказать мне о писательнице Ваухини Вару?" Мне ответили, что я журналист (правда, хотя я тоже и художественный писатель), что я родился в Калифорнии (неправда) и что я выиграл премию Джеральда Лоэба и Национальную премию журнала (неправда, неправда).

После этого у меня появилась привычка часто спрашивать о себе. Однажды я узнал, что Ваухини Вара - автор научно-популярной книги "Родные и чужие: Творение мира на Северной территории Австралии". Это тоже было неправдой, но я согласился, ответив, что считаю репортаж "опасным и тяжелым".

"Спасибо за вашу важную работу", - сказали в ChatGPT.

Тролляя продукт, разрекламированный как почти человеческий собеседник, обманом заставляя его раскрыть свою сущностную ошибочность, я чувствовала себя героиней в какой-то длительной игре силы между девушкой и роботом.

Различные формы искусственного интеллекта используются уже давно, но именно презентация ChatGPT в конце прошлого года неожиданно принесла искусственный интеллект в наше общественное сознание. По состоянию на февраль ChatGPT был, по одной из метрик, наиболее быстрорастущим потребительским приложением в истории. Наши первые встречи с этими технологиями показали, что они чрезвычайно эксцентричны – вспомните жуткий разговор Кевина Руза с чат-ботом Bing от Microsoft на базе искусственного интеллекта, который в течение двух часов признавался, что хочет быть человеком и влюблен в него, – и часто, как свидетельствует мой опыт, крайне ошибавшийся.

С тех пор в АИ произошло многое: компании вышли за пределы базовых продуктов прошлого, представив более сложные инструменты, такие как персонализированные чат-боты, сервисы, которые могут обрабатывать фотографии и звук вместе с текстом, и многое другое. Соперничество между OpenAI и более известными технологическими компаниями стало более интенсивным, чем когда-либо, даже несмотря на то, что меньшие игроки набирали обороты. Правительства Китая, Европы и Соединенных Штатов сделали важные шаги в направлении регулирования развития технологии, стараясь не уступить конкурентные позиции отраслям других стран.

Но больше, чем любое другое технологическое, бизнесовое или политическое событие, этот год отметился тем, как искусственный интеллект проник в нашу повседневную жизнь, научив нас воспринимать его недостатки – жуткость, ошибки и т.п. – как собственные, а стоящие за ним компании. , умело использовали нас, чтобы тренировать свое творение. В мае, когда выяснилось, что юристы использовали юридическую справку, которую ChatGPT наполнил ссылками на несуществующие судебные решения, шутка, как и штраф в размере $5 000, которую юристам пришлось оплатить, была на их совести, а не на технологии. "Это стыдно", - сказал один из них судьи.

Нечто подобное произошло с произведенными искусственным интеллектом глубокими фейками, цифровыми имитациями реальных людей. Помните, как к ним относились с ужасом? В марте, когда Крис Тейген не могла выяснить, настоящее ли изображение Папы Римского в пуховике в стиле Баленсиаги, она написала в социальных сетях: "Ненавижу себя, лол". Средние школы и университеты быстро перешли от забот о том, как предотвратить использование искусственного интеллекта студентами, к тому, чтобы показать им, как эффективно им пользоваться. ИИ все еще не очень хорошо пишет, но теперь, когда он демонстрирует свои недостатки, высмеиваются не продукты, а плохо ими пользующиеся студенты.

Ладно, подумаете вы, но разве мы не приспосабливались к новым технологиям на протяжении большей части человеческой истории? Если мы собираемся их использовать, то не должны ли мы быть умными в этом вопросе? Эта линия рассуждений избегает того, что должно быть центральным вопросом: стоит ли вообще создавать лживых чат-ботов и механизмы глубокого фейка?

Ошибки искусственного интеллекта имеют милое антропоморфное название – галлюцинации – но этот год ясно показал, насколько высокими могут быть ставки. Мы читали заголовки о том, как ИИ учит беспилотники-убийцы (с возможностью непредсказуемого поведения), отправляет людей в тюрьму (даже если они невиновны), проектирует мосты (с потенциально небрежным наблюдением), диагностирует всевозможные заболевания (иногда неправильно) и создает убедительные репортажи (в некоторых случаях – для распространения политической дезинформации).

Как общество мы, безусловно, выиграли от перспективных технологий на основе ИИ; В этом году я был в восторге, читая о технологиях, которые могут обнаружить рак молочной железы, который не замечают врачи, или позволить людям расшифровывать китовое общение. Сосредоточение на этих преимуществах и обвинение себя во многих случаях, когда технологии искусственного интеллекта нас подводят, освобождает от ответственности компании, стоящие за этими технологиями, и, в частности, людей, стоящих за этими компаниями.

События последних нескольких недель подчеркивают, насколько прочна власть этих людей. OpenAI, организация, стоящая за ChatGPT, была создана как неприбыльная, чтобы максимизировать общественный интерес, а не только максимизировать прибыль. Однако когда ее правление уволило Сэма Альтмана, исполнительного директора, на фоне опасений, что он недостаточно серьезно относится к общественным интересам, инвесторы и сотрудники взбунтовались. Через пять дней господин Альтман вернулся с триумфом, заменив большинство неудобных членов правления.

Оглядываясь назад, я понимаю, что в моих ранних играх с ChatGPT я неправильно определил своего соперника. Я думал, что это была самая технология. Я должен помнить, что технологии сами по себе нейтральны по отношению к ценностям. Богатые и влиятельные люди, стоящие за ними, и институты, созданные этими людьми – нет.

Правда заключается в том, что вне зависимости от того, о чем я спрашивал ChatGPT, в моих ранних попытках сбить его с толку, OpenAI выходил вперед. Инженеры разработали его так, чтобы он учился на основе общения с пользователями. И независимо от того, были ли его ответы правильными, они поощряли меня к взаимодействию с ним снова и снова. Главной целью OpenAI в первый год было заставить людей использовать его. Поэтому, преследуя свою цель, я только помогал ей в этом.

Компании, разрабатывающие ИИ, упорно трудятся над исправлением недостатков своих продуктов. Учитывая все привлекаемые ими инвестиции, можно представить, что будет достигнут определенный прогресс. Но даже в гипотетическом мире, где возможности искусственного интеллекта будут совершенны – возможно, именно в таком мире – дисбаланс сил между творцами и пользователями искусственного интеллекта должен заставить нас остерегаться его коварных возможностей. Обозримое стремление ChatGPT не только представить себя, рассказать нам, что он собой представляет, но и сказать нам, кто мы и что мы должны думать, является ярким тому примером. Сегодня, когда технология находится в зачаточном состоянии, эта способность кажется новой, даже забавной. Завтра это может быть не так.

Недавно я спросила ChatGPT, что я – то есть журналистка Ваухини Вара – думаю об искусственном интеллекте. Он возразил, сказав, что у него недостаточно информации. Тогда я попросил его написать вымышленную историю о журналистке по имени Ваухини Вара, которая пишет статью для The New York Times о ИИ. "Пока дождь продолжал стучать в окна, - писал чат, - слова Ваухини Вара перекликались с мыслью о том, что подобно симфонии интеграция ИИ в нашу жизнь может стать прекрасной и общей композицией, если проводить ее осторожно".

НЕ ПРОПУСТИТЕ

АКТУАЛЬНЫЕ НОВОСТИ ПО ТЕМЕ