Forscher der chinesischen Akademie der Wissenschaften und der Südchinesischen Universität für Technologie in Guangzhou haben herausgefunden, dass große Sprachmodelle (LLM) wie Chatgpt und Gemini in der Lage sind, Objekte spontan wie Menschen spontan zu erkennen und zu klassifizieren.
Der Zweck von Wissenschaftlern bestand darin, herauszufinden, ob Shi-Modelle Dinge nicht nur durch grundlegende Kategorien, sondern auch durch komplexere Parameter-eine Funktion, emotionale Farbe, Umgebung usw. bestimmen konnten, sie analysierten 4,7 Millionen Antworten für Beispiele für 1.854 natürliche Objekte, einschließlich Hunde, Stühle, Äpfel und Autos. Die Ergebnisse zeigten, dass AI 66 Bestellparameter über konventionelle Kategorien wie "Lebensmittel" erstellte. Dazu gehören Textur, emotionale Bedeutung und Eignung für Kinder. Dies zeigt, dass die künstliche Intelligenz "denkt" ist tiefer als einfach eine einfache Anerkennung. Es ist besonders interessant, dass multimodale Modelle, die den Text und die Bilder kombinieren, in der Nähe der menschlichen, visuellen und semantischen Merkmale gleichzeitig das Denken zeigen.
Die Forscher verglichen auch die Reaktionen des menschlichen Gehirns mit der Arbeit der KI durch Neuroimaging und fanden eine erstaunliche Ähnlichkeit in der Wahrnehmung von Objekten. Diese Entdeckung hilft nicht nur, die Natur des menschlichen Denkens besser zu verstehen, sondern bestätigt auch den Fortschritt der künstlichen Intelligenz bei der Reflexion komplexer kognitiver Prozesse.