Исследователи из Китайской академии наук и Южно -китайского технологического университета в Гуанчжоу обнаружили, что крупные языковые модели (LLM), такие как CHATGPT и Gemini, способны спонтанно распознавать и классифицировать объекты, как это делают люди.
Целью ученых было выяснить, могут ли модели SHI определять вещи не только по основным категориям, но и с помощью более сложных параметров-функция, эмоциональный цвет, окружающая среда и т. Д. Для этого они проанализировали 4,7 миллиона ответов на примеры 1854 естественных объектов, включая собак, стулья, яблоки и автомобили. Результаты показали, что ИИ создал 66 параметров упорядочения, превышающую обычные категории, такие как «еда». К ним относятся текстура, эмоциональная значимость и пригодность для детей. Это показывает, что искусственный интеллект «думает» более глубоко, чем простое признание. Особенно интересно, что мультимодальные модели, которые объединяют текст и изображения, показывают мышление близко к человеку, одновременно обрабатывая визуальные и семантические особенности.
Исследователи также сравнили реакции человеческого мозга с работой ИИ посредством нейровизуализации, обнаружив удивительное сходство в восприятии объектов. Это открытие не только помогает лучше понять природу человеческого мышления, но и подтверждает прогресс искусственного интеллекта в отражении сложных когнитивных процессов.