Один из первых вопросов, который я задал Чатгпт в начале этого года, касался меня: «Что вы можете рассказать мне о писателе Вахини Вару?» Мне ответили, что я был журналистом (хотя я также был художественным писателем), что я родился в Калифорнии (ложь) и что я выиграл премию Джеральды Лоэб и награду Национального журнала (например, ложь).
После этого у меня была привычка часто спрашивать себя. Однажды я узнал, что Вахини Вара является автором популярной книги «Уроженец и инопланетянин: создание мира на северной территории Австралии». Это было также ложным, но я согласился, сказав, что считаю отчет «опасным и трудным».
«Спасибо за важную работу», - сказал Чатгпт.
Относившись к продукту, рекламируемому как почти человеческий собеседник, заставляя его раскрыть свою основную ошибку, я чувствовал себя героиней в какой -то длительной игре силы между девушкой и роботом.
Различные формы искусственного интеллекта использовались в течение длительного времени, но это презентация CHATGPT, которая неожиданно внесла искусственный интеллект в наше общественное сознание. По состоянию на февраль Chatgpt был одним из показателей, самым быстрорастущим потребительским применением в истории. Наши первые встречи с этими технологиями показали, что они чрезвычайно эксцентрично-воспоминание о жутком разговоре Кевина Рузы с Bing Cath от Microsoft на основе искусственного интеллекта, который в течение двух часов признался, что он хотел быть человеком и влюблен в него, и часто, как показывает мой опыт, был очень ошибочным.
С тех пор в ИИ было много: компании вышли за рамки основных продуктов прошлого, представляя более сложные инструменты, такие как персонализированные чат -боты, услуги, которые могут обрабатывать фотографии и звук с текстом и многое другое. Соперничество между OpenAI и лучшими технологическими компаниями стало более интенсивным, чем когда -либо, хотя меньшие игроки набирали обороты. Правительства Китая, Европы и Соединенных Штатов предприняли важные шаги по регулированию развития технологий, стараясь не уступать на конкурентные должности других стран.
Но больше, чем любое другое технологическое, деловое или политическое событие, этот год отличался тем, как искусственный интеллект проник в нашу повседневную жизнь, научив нас воспринимать его недостатки, ошибки и т. Д.-как наши собственные, и компании, стоящие за ней, использовались для обучения нас. В мае, когда оказалось, что адвокаты использовали юридическое свидетельство, которое ЧАТГПТ заполнил ссылками на не существующие суждения, шутку, а также штраф в размере 5000 долларов, которые должны были заплатить адвокаты, был на их совесть, а не на технологии. «Это стыдно», - сказал один из них.
Что -то подобное произошло с созданием искусственного интеллекта с глубокими подделками, цифровой имитацией реальных людей. Помните, как с ними обращались с ужасом? В марте, когда Crissi Teagen не смогла выяснить, настоящий образ Папы в стиле Balenciga в стиле, она написала в социальных сетях: «Я ненавижу себя, лол». Средние школы и университеты быстро перешли от беспокойства о том, как предотвратить использование искусственного интеллекта, чтобы показать им, как его эффективно использовать. ИИ все еще не пишет хорошо, но теперь, когда он показывает свои недостатки, а не продукты высмеиваются, а студенты, которые их используют.
Хорошо, вы подумаете, но разве мы не адаптируемся к новым технологиям по большей части истории человечества? Если мы собираемся их использовать, не должны ли мы быть умными в этом вопросе? Эта линия рассуждений избегает того, что должно быть центральным вопросом: должны ли вы вообще создавать чат -боты и глубокие фальшивые механизмы?
Ошибки искусственного интеллекта имеют милое антропоморфное название - галлюцинации - но в этом году ясно показали, насколько высоки могут быть показатели. Мы прочитали заголовки о том, как ИИ преподают Killer (с непредсказуемым поведением), отправляет людей в тюрьму (даже если они невиновны), проектирует мосты (с потенциально небрежным надзором), диагностирует все виды болезней (иногда неправильно) и создает убедительные отчеты (в некоторых случаях).
Как общество, мы, безусловно, выиграли от перспективных технологий, основанных на ИИ; В этом году я был в восторге, читая о технологиях, которые могут обнаружить рак молочной железы, который не замечает врачей или позволяет людям расшифровать любое общение. Сосредоточив внимание на этих преимуществах и обвинениях в себе во многих случаях, когда поставляются технологии искусственного интеллекта, высвобождают ответственность компании в рамках этих технологий и, в частности, людей, стоящих за этими компаниями.
События последних нескольких недель подчеркивают, насколько сильна сила этих людей. OpenAI, организация, стоящая за CHATGPT, была создана как непрафта, чтобы максимизировать общественный интерес, а не только для максимизации прибыли. Однако, когда ее правление было выпущено Сэмом Альтманом, исполнительным директором, против фона опасений, что он не был достаточно серьезным в отношении общественных интересов, инвесторы и сотрудники восстали. Пять дней спустя г -н Альтман вернулся с триумфом, заменив большинство неудобных членов совета директоров.
Оглядываясь назад, я понимаю, что в моих ранних играх с CHATGPT я неверно истолковал своего противника. Я думал, что это была сама технология. Я должен был помнить, что сами технологии нейтральны в отношении ценностей. Богатые и влиятельные люди, стоящие за ними и учреждения, созданные этими людьми, нет.
Правда в том, что независимо от того, что я попросил Chatgpt, в моих ранних попытках выбить его из залога, Openai пошел вперед. Инженеры разработали его так, чтобы он учился на основе связи с пользователями. И независимо от того, были ли его ответы правильными, они побуждали меня взаимодействовать с ним снова и снова. Основная цель Openai в первом году состояла в том, чтобы заставить людей использовать его. Итак, стремясь к своей цели, я только помог ей с этим.
Компании, которые разрабатывают ИИ, усердно работают, чтобы исправить недостатки своих продуктов. Учитывая все инвестиции, которые они привлекают, мы можем представить, что будет достигнут какой -то прогресс. Но даже в гипотетическом мире, где возможности искусственного интеллекта будут идеальными - возможно, в таком мире - дисбаланс власти между создателями и пользователями искусственного интеллекта должен сделать нас остерегаться его коварных возможностей. Не только представить себя, рассказать нам, что он представляет себя, но и сказать нам, кто мы и что мы должны думать, является ярким примером. Сегодня, когда технологии находятся в состоянии младенчества, эта способность кажется новой, даже смешной. Завтра это может быть не правдой.
Недавно я спросил Chatgpt, что я - то есть журналист Вахини Вара - я думаю об искусственном интеллекте. Он отрицал, сказав, что у него не было достаточно информации. Затем я попросил его написать вымышленную историю о журналисте по имени Вахини Вара, который написал статью для New York Times о Ши. «В то время как дождь продолжал стучать в окна, - писал чат, - слова Вахини Варас повторились с идеей, что, как и симфония, интеграция ИИ в нашу жизнь может быть замечательной и общей композицией, если это сделано с осторожностью».