RZECZYWISTY

Minął rok, a ChatGPT już spełnia wszystkie nasze życzenia

Jedno z pierwszych pytań, które zadałem ChatGPT na początku tego roku, dotyczyło mnie samego: „Co możesz mi powiedzieć o pisarzu Vauhini Varu?” Powiedziano mi, że jestem dziennikarzem (prawda, chociaż jestem także pisarzem beletrystyki), że urodziłem się w Kalifornii (fałsz) i że zdobyłem nagrodę Geralda Loeba oraz nagrodę National Magazine Award (fałsz, fałsz).

Potem przyzwyczaiłem się często pytać o siebie. Któregoś dnia dowiedziałem się, że Vauhini Wara jest autorem popularnonaukowej książki „Kind and Stranger: Making Peace in the Northern Territory of Australia”. To także nie była prawda, ale zgodziłem się, odpowiadając, że uważam raport za „niebezpieczny i trudny”.

„Dziękuję za Twoją ważną pracę” – powiedział ChatGPT.

Trollując produkt reklamowany jako niemal ludzki rozmówca i oszukując go, aby ujawnił jego zasadniczą omylność, poczułam się jak bohaterka jakiejś długotrwałej zabawy w władzę dziewczyna-robot.

Różne formy sztucznej inteligencji są obecne już od dawna, ale dopiero prezentacja ChatGPT pod koniec zeszłego roku nieoczekiwanie wprowadziła sztuczną inteligencję do naszej świadomości publicznej. W lutym ChatGPT była, pod jednym względem, najszybciej rozwijającą się aplikacją konsumencką w historii. Nasze pierwsze spotkania z tymi technologiami pokazały, że są one niezwykle ekscentryczne – pomyślmy o niesamowitej rozmowie Kevina Roose’a z chatbotem Bing Microsoftu opartym na sztucznej inteligencji, który w ciągu dwóch godzin wyznał, że chce być człowiekiem i jest w niej zakochany – i często, jak pokazuje moje doświadczenie, bardzo się myliłem.

Od tego czasu wiele wydarzyło się w AI: firmy wyszły poza podstawowe produkty z przeszłości, wprowadzając bardziej wyrafinowane narzędzia, takie jak spersonalizowane chatboty, usługi przetwarzające zdjęcia i dźwięk wraz z tekstem i nie tylko. Rywalizacja między OpenAI a bardziej uznanymi firmami technologicznymi jest bardziej intensywna niż kiedykolwiek, nawet gdy mniejsi gracze nabierają rozpędu. Rządy Chin, Europy i Stanów Zjednoczonych podjęły ważne kroki w kierunku uregulowania rozwoju technologii, starając się nie ustępować pozycji konkurencyjnej przemysłom innych krajów.

Jednak bardziej niż jakiekolwiek inne wydarzenie technologiczne, biznesowe czy polityczne, ten rok był naznaczony tym, jak sztuczna inteligencja przeniknęła do naszego codziennego życia, ucząc nas akceptować jej wady – przerażanie, błędy itp. – jako własne i firmy, które za nią stoją , umiejętnie wykorzystali nas do szkolenia ich tworzenia. W maju, kiedy ujawniono, że prawnicy posługiwali się odniesieniem prawnym, które ChatGPT wypełniło odniesieniami do nieistniejących orzeczeń sądowych, żartem, takim jak grzywna w wysokości 5000 dolarów, którą prawnicy musieli zapłacić, było spuszczenie się z ich sumienia, a nie z technologii. „To wstyd” – powiedział sędziemu jeden z nich.

Coś podobnego stało się z głębokimi podróbkami wytwarzanymi przez sztuczną inteligencję, cyfrowymi imitacjami prawdziwych ludzi. Czy pamiętasz, jak byli traktowani z przerażeniem? W marcu, gdy Chrissy Teigen nie mogła się przekonać, czy wizerunek papieża w puchowej kurtce w stylu Balenciagi jest prawdziwy, napisała w mediach społecznościowych: „Nienawidzę siebie, lol”. Szkoły średnie i uniwersytety szybko przeszły od martwienia się, jak uniemożliwić uczniom korzystanie ze sztucznej inteligencji, do pokazywania im, jak skutecznie z niej korzystać. Sztuczna inteligencja nadal nie pisze zbyt dobrze, ale teraz, gdy pokazuje swoje wady, to nie produkty są wyśmiewane, ale uczniowie, którzy źle ich używają.

No dobrze, możesz pomyśleć, ale czy przez większą część historii ludzkości nie dostosowywaliśmy się do nowych technologii? Jeśli mamy z nich korzystać, czy nie powinniśmy zachować się mądrze? W tym toku rozumowania unika się zasadniczego pytania: czy w ogóle powinniśmy tworzyć kłamliwe chatboty i mechanizmy deepfake?

Błędy AI mają uroczą, antropomorficzną nazwę – halucynacje – ale w tym roku stało się jasne, jak wysoka może być stawka. Czytaliśmy nagłówki o szkoleniu przez sztuczną inteligencję zabójczych dronów (z potencjałem nieprzewidywalnego zachowania), wysyłaniu ludzi do więzienia (nawet jeśli są niewinni), projektowaniu mostów (z potencjalnie niechlujnym nadzorem), diagnozowaniu wszelkiego rodzaju chorób (czasami błędnie) oraz tworzenie przekonujących raportów (w niektórych przypadkach – w celu szerzenia dezinformacji politycznej).

Jako społeczeństwo z pewnością skorzystaliśmy z obiecujących technologii opartych na sztucznej inteligencji; w tym roku z wielką radością przeczytałam o technologiach pozwalających wykryć raka piersi, którego lekarze przeoczają, lub pozwalających ludziom rozszyfrować komunikację wielorybów. Koncentrowanie się na tych korzyściach i obwinianie siebie za częste niepowodzenia technologii sztucznej inteligencji zwalnia z odpowiedzialności firmy stojące za tymi technologiami, a w szczególności osoby za nimi stojące.

Wydarzenia ostatnich kilku tygodni ukazują, jak silna jest siła tych ludzi. OpenAI, organizacja stojąca za ChatGPT, została utworzona jako organizacja non-profit, aby móc maksymalizować interes publiczny, a nie tylko zysk. Kiedy jednak zarząd zwolnił dyrektora generalnego Sama Altmana w obawie, że nie traktuje on interesu publicznego wystarczająco poważnie, inwestorzy i pracownicy zbuntowali się. Pięć dni później pan Altman powrócił triumfalnie, zastępując większość niewygodnych członków zarządu.

Patrząc wstecz, zdaję sobie sprawę, że podczas moich wczesnych gier z ChatGPT źle oceniłem przeciwnika. Myślałem, że to kwestia samej technologii. Powinienem był pamiętać, że technologia sama w sobie jest neutralna pod względem wartości. Stojący za nimi bogaci i wpływowi ludzie oraz instytucje przez nich stworzone – takie nie są.

Prawda jest taka, że ​​niezależnie od tego, o co pytałem ChatGPT, w moich wczesnych próbach zmylenia tego, OpenAI zwyciężyło. Inżynierowie zaprojektowali go tak, aby uczyć się na podstawie interakcji z użytkownikami. I niezależnie od tego, czy jego odpowiedzi były prawidłowe, czy nie, zachęcali mnie do ciągłego kontaktu z nim. Głównym celem OpenAI w pierwszym roku jego istnienia było zachęcenie ludzi do korzystania z niego. Zatem realizując swój cel, tylko jej w tym pomagałam.

Firmy zajmujące się sztuczną inteligencją ciężko pracują, aby naprawić wady swoich produktów. Biorąc pod uwagę wszystkie inwestycje, które wprowadzają, można sobie wyobrazić, że nastąpi pewien postęp. Jednak nawet w hipotetycznym świecie, w którym możliwości sztucznej inteligencji są doskonałe – być może w takim świecie – brak równowagi pomiędzy twórcami sztucznej inteligencji a jej użytkownikami powinien budzić w nas czujność wobec jej podstępnych możliwości. Widoczna chęć ChatGPT nie tylko do przedstawienia się, powiedzenia nam, czym jest, ale także powiedzenia nam, kim jesteśmy i co powinniśmy myśleć, jest tego wyraźnym przykładem. Dziś, gdy technologia jest w powijakach, umiejętność ta wydaje się nowatorska, a nawet zabawna. Jutro może tak nie być.

Niedawno zapytałem ChatGPT, co ja – czyli dziennikarz Vauhini Vara – myślę o sztucznej inteligencji. Sprzeciwił się, twierdząc, że nie ma wystarczających informacji. Następnie poprosiłem go o napisanie fikcyjnej historii o dziennikarzu Vauhini Vara, który pisze artykuł o sztucznej inteligencji dla „The New York Times”. „Podczas gdy deszcz nadal uderzał w okna” – napisano na czacie, „słowa Vahini Var współgrały z myślą, że podobnie jak symfonia, integracja sztucznej inteligencji z naszym życiem może stać się piękną kompozycją sprzyjającą współpracy, jeśli zostanie przeprowadzona ostrożnie”.

NIE PRZEGAP

AKTUALNOŚCI WEDŁUG TEMATU