Одне з перших запитань, яке я поставив ChatGPT на початку цього року, стосувалося мене самого: “Що ви можете розповісти мені про письменницю Ваухіні Вару?” Мені відповіли, що я журналіст (правда, хоча я також і художній письменник), що я народився в Каліфорнії (неправда) і що я виграв премію Джеральда Лоеба та Національну премію журналу (неправда, неправда).
Після цього у мене з’явилася звичка часто запитувати про себе. Одного разу я дізнався, що Ваухіні Вара – авторка науково-популярної книги “Рідні та чужі: Творення миру на Північній території Австралії”. Це теж було неправдою, але я погодився, відповівши, що вважаю репортаж “небезпечним і важким”.
“Дякуємо за вашу важливу роботу”, – сказали в ChatGPT.
Тролячи продукт, розрекламований як майже людський співрозмовник, обманом змушуючи його розкрити свою сутнісну помилковість, я відчувала себе героїнею в якійсь тривалій грі сили між дівчиною і роботом.
Різні форми штучного інтелекту використовуються вже давно, але саме презентація ChatGPT наприкінці минулого року несподівано принесла штучний інтелект у нашу суспільну свідомість. Станом на лютий ChatGPT був, за однією з метрик, найбільш швидкозростаючим споживчим додатком в історії. Наші перші зустрічі з цими технологіями показали, що вони надзвичайно ексцентричні – згадайте моторошну розмову Кевіна Руза з чат-ботом Bing від Microsoft на базі штучного інтелекту, який протягом двох годин зізнавався, що хоче бути людиною і закоханий у неї, – і часто, як свідчить мій досвід, вкрай помилявся.
З тих пір в АІ сталося багато чого: Компанії вийшли за межі базових продуктів минулого, представивши більш складні інструменти, такі як персоналізовані чат-боти, сервіси, які можуть обробляти фотографії та звук разом з текстом, і багато іншого. Суперництво між OpenAI та більш відомими технологічними компаніями стало більш інтенсивним, ніж будь-коли, навіть попри те, що менші гравці набирали обертів. Уряди Китаю, Європи та Сполучених Штатів зробили важливі кроки в напрямку регулювання розвитку технології, намагаючись не поступитися конкурентними позиціями галузям інших країн.
Але більше, ніж будь-яка інша технологічна, бізнесова чи політична подія, цей рік відзначився тим, як штучний інтелект проник у наше повсякденне життя, навчивши нас сприймати його недоліки – моторошність, помилки тощо – як власні, а компанії, що стоять за ним, вправно використовували нас, щоб тренувати своє творіння. У травні, коли з’ясувалося, що юристи використовували юридичну довідку, яку ChatGPT наповнив посиланнями на неіснуючі судові рішення, жарт, як і штраф у розмірі $5 000, який юристам довелося сплатити, був на їхній совісті, а не на технології. “Це соромно”, – сказав один з них судді.
Щось подібне сталося з виробленими штучним інтелектом глибокими фейками, цифровими імітаціями реальних людей. Пам’ятаєте, як до них ставилися з жахом? У березні, коли Кріссі Тейген не могла з’ясувати, чи справжнє зображення Папи Римського в пуховику в стилі Баленсіаги, вона написала в соціальних мережах: “Ненавиджу себе, лол”. Середні школи та університети швидко перейшли від турбот про те, як запобігти використанню штучного інтелекту студентами, до того, щоб показати їм, як ефективно ним користуватися. ШІ все ще не дуже добре пише, але тепер, коли він демонструє свої недоліки, висміюються не продукти, а студенти, які погано ними користуються.
Гаразд, подумаєте ви, але хіба ми не пристосовувалися до нових технологій протягом більшої частини людської історії? Якщо ми збираємося їх використовувати, то чи не повинні ми бути розумними в цьому питанні? Ця лінія міркувань уникає того, що має бути центральним питанням: Чи варто взагалі створювати брехливих чат-ботів і механізми глибокого фейку?
Помилки штучного інтелекту мають милу антропоморфну назву – галюцинації – але цей рік чітко показав, наскільки високими можуть бути ставки. Ми читали заголовки про те, як ШІ навчає безпілотники-вбивці (з можливістю непередбачуваної поведінки), відправляє людей до в’язниці (навіть якщо вони невинні), проектує мости (з потенційно недбалим наглядом), діагностує всілякі захворювання (іноді неправильно) і створює переконливі репортажі (в деяких випадках – для поширення політичної дезінформації).
Як суспільство, ми, безумовно, виграли від перспективних технологій на основі ШІ; цього року я був у захваті, читаючи про технології, які можуть виявити рак молочної залози, який не помічають лікарі, або дозволити людям розшифровувати китове спілкування. Зосередження на цих перевагах і звинувачення себе у багатьох випадках, коли технології штучного інтелекту нас підводять, звільняє від відповідальності компанії, які стоять за цими технологіями, і, зокрема, людей, які стоять за цими компаніями.
Події останніх кількох тижнів підкреслюють, наскільки міцною є влада цих людей. OpenAI, організація, що стоїть за ChatGPT, була створена як неприбуткова, щоб мати змогу максимізувати суспільний інтерес, а не лише максимізувати прибуток. Однак, коли її правління звільнило Сема Альтмана, виконавчого директора, на тлі побоювань, що він недостатньо серйозно ставиться до суспільних інтересів, інвестори та співробітники збунтувалися. Через п’ять днів пан Альтман повернувся з тріумфом, замінивши більшість незручних членів правління.
Озираючись назад, я розумію, що в моїх ранніх іграх з ChatGPT я неправильно визначив свого суперника. Я думав, що це була сама технологія. Я мав би пам’ятати, що технології самі по собі нейтральні щодо цінностей. Багаті та впливові люди, які стоять за ними, та інституції, створені цими людьми, – ні.
Правда полягає в тому, що незалежно від того, про що я запитував ChatGPT, в моїх ранніх спробах збити його з пантелику, OpenAI виходив вперед. Інженери розробили його так, щоб він навчався на основі спілкування з користувачами. І незалежно від того, чи були його відповіді правильними, вони заохочували мене до взаємодії з ним знову і знову. Головною метою OpenAI в перший рік було змусити людей використовувати його. Тож, переслідуючи свою мету, я лише допомагав їй у цьому.
Компанії, що розробляють ШІ, наполегливо працюють над виправленням недоліків своїх продуктів. Зважаючи на всі інвестиції, які вони залучають, можна уявити, що буде досягнуто певного прогресу. Але навіть у гіпотетичному світі, де можливості штучного інтелекту будуть досконалими – можливо, саме в такому світі – дисбаланс сил між творцями та користувачами штучного інтелекту повинен змусити нас остерігатися його підступних можливостей. Позірне прагнення ChatGPT не лише представити себе, розповісти нам, що він собою являє, але й сказати нам, хто ми є і що ми повинні думати, є яскравим тому прикладом. Сьогодні, коли технологія перебуває в зародковому стані, ця здатність здається новою, навіть кумедною. Завтра це може бути не так.
Нещодавно я запитала ChatGPT, що я – тобто журналістка Ваухіні Вара – думаю про штучний інтелект. Він заперечив, сказавши, що у нього недостатньо інформації. Тоді я попросив його написати вигадану історію про журналістку на ім’я Ваухіні Вара, яка пише статтю для The New York Times про ШІ. “Поки дощ продовжував стукати у вікна, – писав чат, – слова Ваухіні Вара перегукувалися з думкою про те, що, подібно до симфонії, інтеграція ШІ в наше життя може стати прекрасною і спільною композицією, якщо проводити її обережно”.