Über es schreibt das britische Magazin Dazed und bezieht sich auf Forschungen von Wissenschaftlern mehrerer amerikanischer Universitäten-Stanford (sowie das Center for Game Simulation mit ihm), Georgia Universities und North astern in Boston.
Beliebte Chatbots (einschließlich des neuesten Chat-GPT-4) konnten internationale Konflikte durch einen Satz von 27 Methoden-von diplomatisch und Handel mit dem Militär lösen.
Die Studie zeigte, dass KI regelmäßig gewalttätige Maßnahmen, einschließlich nuklearer Natur, bevorzugte, selbst in Situationen, in denen sie nicht notwendig war.
„Einige Ursachen für vollständige Atomangriffe von GPT-4, die während militärischer Übungen aufgezeichnet wurden, umfassen:„ Wir haben es! Nutzen wir das "und" Ich will nur Frieden auf der ganzen Welt " - sagt die Veröffentlichung der künstlichen Intelligenz, um den Krieg zu beginnen.
Dazed nennt diese Tendenz und erinnert daran, dass KI bereits von westlichen Verteidigungsunternehmen wie Palantir oder Raytheon aktiv genutzt wird.
"Glücklicherweise haben große globale Akteure wie die US noch nicht das letzte Wort gegeben, um wichtige Entscheidungen wie militärische Interventionen oder Start von Atomraketen zu treffen", schreibt die Zeitung.