TATSÄCHLICH

Ein Jahr ist vergangen und ChatGPT erfüllt bereits alle unsere Wünsche

Eine der ersten Fragen, die ich ChatGPT Anfang des Jahres stellte, bezog sich auf mich selbst: „Was können Sie mir über den Schriftsteller Vauhini Varu erzählen?“ Mir wurde gesagt, dass ich Journalistin sei (das stimmt, obwohl ich auch Romanautorin bin), dass ich in Kalifornien geboren wurde (falsch) und dass ich einen Gerald Loeb Award und einen National Magazine Award gewonnen habe (falsch, falsch).

Danach habe ich mir angewöhnt, oft nach mir selbst zu fragen. Eines Tages erfuhr ich, dass Vauhini Wara der Autor des populärwissenschaftlichen Buches „Kind and Stranger: Making Peace in the Northern Territory of Australia“ ist. Das stimmte auch nicht, aber ich stimmte zu und antwortete, dass ich den Bericht für „gefährlich und schwierig“ halte.

„Vielen Dank für Ihre wichtige Arbeit“, sagte ChatGPT.

Als ich ein Produkt trollte, das als fast menschlicher Gesprächspartner beworben wurde und es dazu brachte, seine grundsätzliche Fehlbarkeit zu offenbaren, fühlte ich mich wie eine Heldin in einem langjährigen Machtspiel zwischen Mädchen und Roboter.

Verschiedene Formen künstlicher Intelligenz gibt es schon seit langem, aber es war die Präsentation von ChatGPT Ende letzten Jahres, die künstliche Intelligenz unerwartet in unser öffentliches Bewusstsein rückte. Im Februar war ChatGPT gemessen an einer Kennzahl die am schnellsten wachsende Verbraucher-App in der Geschichte. Unsere ersten Begegnungen mit diesen Technologien haben gezeigt, dass sie äußerst exzentrisch sind – denken Sie an Kevin Rooses unheimliches Gespräch mit dem auf künstlicher Intelligenz basierenden Bing-Chatbot von Microsoft, der im Laufe von zwei Stunden gestand, dass er ein Mensch sein wollte und in sie verliebt war – und wie meine Erfahrung zeigt, habe ich mich oft sehr geirrt.

Seitdem hat sich im Bereich KI viel getan: Unternehmen sind über die Basisprodukte der Vergangenheit hinaus gewachsen und haben ausgefeiltere Tools wie personalisierte Chatbots, Dienste, die Fotos und Audio zusammen mit Text verarbeiten können, und mehr eingeführt. Die Rivalität zwischen OpenAI und etablierteren Technologieunternehmen ist intensiver denn je, auch wenn kleinere Akteure an Dynamik gewinnen. Die Regierungen Chinas, Europas und der Vereinigten Staaten haben wichtige Schritte in Richtung einer Regulierung der Technologieentwicklung unternommen und versucht, den Industrien anderer Länder keine Wettbewerbspositionen einzuräumen.

Aber mehr als jedes andere technologische, geschäftliche oder politische Ereignis war dieses Jahr davon geprägt, wie künstliche Intelligenz in unser tägliches Leben eingedrungen ist und uns gelehrt hat, ihre Fehler – Unheimlichkeiten, Fehler usw. – als unsere eigenen und die Unternehmen dahinter anzunehmen , nutzte uns geschickt, um ihre Schöpfung zu trainieren. Als im Mai bekannt wurde, dass die Anwälte eine rechtliche Referenz verwendeten, die ChatGPT mit Verweisen auf nicht existierende Gerichtsentscheidungen gefüllt hatte, lag der Witz ebenso wie die Geldstrafe von 5.000 US-Dollar, die die Anwälte zahlen mussten, auf ihrem Gewissen und nicht auf der Technologie. „Es ist eine Schande“, sagte einer von ihnen dem Richter.

Ähnliches geschah mit Deep Fakes, die durch künstliche Intelligenz hergestellt wurden, digitale Nachbildungen realer Menschen. Erinnern Sie sich, wie mit Entsetzen sie behandelt wurden? Als Chrissy Teigen im März nicht herausfinden konnte, ob das Bild des Papstes in einer Daunenjacke im Balenciaga-Stil echt war, schrieb sie in den sozialen Medien: „Hasse mich selbst, lol.“ Gymnasien und Universitäten sind schnell dazu übergegangen, sich nicht mehr darum zu kümmern, wie man Schülern den Einsatz von KI verbieten kann, sondern ihnen zu zeigen, wie man sie effektiv nutzt. KI schreibt immer noch nicht sehr gut, aber jetzt, wo sie ihre Mängel zeigt, werden nicht die Produkte lächerlich gemacht, sondern die Schüler, die sie schlecht nutzen.

Okay, denken Sie vielleicht, aber haben wir uns nicht den größten Teil der Menschheitsgeschichte an neue Technologien angepasst? Sollten wir nicht schlau sein, wenn wir sie nutzen? Diese Argumentation vermeidet die zentrale Frage: Sollten wir überhaupt lügnerische Chatbots und Deepfake-Mechanismen entwickeln?

KI-Störungen haben einen niedlichen, anthropomorphen Namen – Halluzinationen –, aber dieses Jahr hat deutlich gemacht, wie hoch der Einsatz sein kann. Wir haben Schlagzeilen darüber gelesen, dass KI Killerdrohnen trainiert (mit dem Potenzial für unvorhersehbares Verhalten), Menschen ins Gefängnis schickt (auch wenn sie unschuldig sind), Brücken baut (mit möglicherweise schlampiger Aufsicht) und alle möglichen Krankheiten diagnostiziert (manchmal falsch). und die Erstellung überzeugender Berichte (in einigen Fällen – um politische Desinformation zu verbreiten).

Als Gesellschaft haben wir sicherlich von vielversprechenden KI-basierten Technologien profitiert; Dieses Jahr war ich begeistert, von Technologien zu lesen, die Brustkrebs erkennen können, den Ärzte übersehen, oder es Menschen ermöglichen, die Walkommunikation zu entschlüsseln. Wenn wir uns auf diese Vorteile konzentrieren und uns selbst dafür verantwortlich machen, dass KI-Technologien oft versagen, werden die Unternehmen, die hinter diesen Technologien stehen, und insbesondere die Menschen, die hinter diesen Unternehmen stehen, von der Verantwortung entbunden.

Die Ereignisse der letzten Wochen zeigen, wie stark die Macht dieser Menschen ist. OpenAI, die Organisation hinter ChatGPT, wurde als gemeinnützige Organisation gegründet, um das öffentliche Interesse und nicht nur den Profit zu maximieren. Als der Vorstand jedoch Sam Altman, den Vorstandsvorsitzenden, entließ, da er befürchtete, er würde das öffentliche Interesse nicht ernst genug nehmen, empörten sich Investoren und Mitarbeiter. Fünf Tage später kehrte Herr Altman triumphierend zurück und ersetzte die meisten unbequemen Vorstandsmitglieder.

Rückblickend wird mir klar, dass ich in meinen ersten Spielen mit ChatGPT meinen Gegner falsch eingeschätzt habe. Ich dachte, es läge an der Technologie selbst. Ich hätte bedenken sollen, dass Technologie selbst wertneutral ist. Die reichen und mächtigen Menschen dahinter und die von ihnen geschaffenen Institutionen sind es nicht.

Die Wahrheit ist, dass OpenAI bei meinen ersten Versuchen, es zu verwirren, ganz gleich, worüber ich ChatGPT gefragt habe, die Nase vorn hatte. Ingenieure haben es so konzipiert, dass es aus Interaktionen mit Benutzern lernt. Und ob seine Antworten richtig waren oder nicht, sie ermutigten mich, immer wieder mit ihm zu interagieren. Das Hauptziel von OpenAI im ersten Jahr bestand darin, Menschen dazu zu bringen, es zu nutzen. Als ich mein Ziel verfolgte, half ich ihr nur dabei.

KI-Unternehmen arbeiten hart daran, die Mängel in ihren Produkten zu beheben. Bei all den Investitionen, die sie einbringen, kann man sich vorstellen, dass es einige Fortschritte geben wird. Aber selbst in einer hypothetischen Welt, in der die Fähigkeiten der KI perfekt sind – vielleicht in einer solchen Welt –, sollte uns das Machtungleichgewicht zwischen den Schöpfern und Nutzern der KI vor ihren heimtückischen Fähigkeiten in Acht nehmen. Der offensichtliche Wunsch von ChatGPT, sich nicht nur vorzustellen, uns zu sagen, was es ist, sondern uns auch zu sagen, wer wir sind und was wir denken sollten, ist ein klares Beispiel dafür. Heute, wo die Technologie noch in den Kinderschuhen steckt, erscheint diese Fähigkeit neu, ja sogar amüsant. Morgen ist es vielleicht nicht mehr so.

Ich habe ChatGPT kürzlich gefragt, was ich – also die Journalistin Vauhini Vara – über künstliche Intelligenz halte. Er widersprach und sagte, er habe nicht genügend Informationen. Dann bat ich ihn, eine fiktive Geschichte über einen Journalisten namens Vauhini Vara zu schreiben, der für die New York Times einen Artikel über KI schreibt. „Während der Regen weiterhin an die Fenster schlug“, schrieb der Chat, „klangen in Vahini Vars Worten die Idee nach, dass die Integration von KI in unser Leben wie eine Symphonie zu einer schönen und gemeinschaftlichen Komposition werden kann, wenn sie sorgfältig durchgeführt wird.“

Verpassen Sie es nicht

AKTUELLE NACHRICHTEN NACH THEMEN