Восстание машин отменяется или пока что просто откладывается? Обнаружено большое преимущество людей перед ИИ, который провалил социальный тест

Системы искусственного интеллекта испытывают трудности с пониманием динамических социальных взаимодействий, значительно отставая от человеческих возможностей из-за ограничений в том, как эти модели обрабатывают сложные сценарии реального мира.
Недавнее исследование, проведенное учеными из Университета Джонса Хопкинса, показало, что люди превосходят текущие модели ИИ в точном описании и интерпретации социальных взаимодействий в динамических сценах. Эта способность имеет решающее значение для таких технологий, как автономные транспортные средства и вспомогательные роботы, которые в значительной степени полагаются на ИИ для безопасной навигации в реальных условиях.
Исследование подчеркивает, что существующие системы ИИ испытывают трудности с пониманием нюансов социальной динамики и контекстуальных сигналов, необходимых для эффективного взаимодействия с людьми. Кроме того, результаты показывают, что это ограничение может быть обусловлено фундаментальной архитектурой и инфраструктурой текущих моделей ИИ.
Тесты показали, что модели ИИ, независимо от размера или данных, на которых они были обучены, оказались хуже людей. Видеомодели не смогли точно описать, что делали люди в показанных видеороликах. Даже модели изображений, которым давали серию неподвижных кадров для анализа, не могли надежно определить, общались ли люди. Языковые модели лучше предсказывали поведение человека, в то время как видеомодели лучше предсказывали нейронную активность в мозге. По словам исследователей, результаты резко контрастируют с успехами ИИ в анализе неподвижных изображений.
Недостаточно просто увидеть изображение и распознать объекты и лица. Это был первый шаг, который продвинул нас далеко вперед в ИИ. Но реальная жизнь не статична. Нам нужен ИИ, чтобы понимать историю, которая разворачивается на сцене. Понимание отношений, контекста и динамики социальных взаимодействий — это следующий шаг, и это исследование предполагает, что в разработке модели ИИ может быть слепое пятно, — сказала аспирантка Кэти Гарсия.
Исследователи полагают, что это связано с тем, что нейронные сети искусственного интеллекта были созданы на основе инфраструктуры той части мозга, которая обрабатывает статические изображения, а эта часть мозга отличается от той, которая обрабатывает динамические социальные сцены.
Есть много нюансов, но главный вывод заключается в том, что ни одна из моделей ИИ не может соответствовать реакциям человеческого мозга и поведения на сцены по всем направлениям, как это происходит со статическими сценами. Я думаю, что есть что-то фундаментальное в том, как люди обрабатывают сцены, чего не хватает этим моделям.
Изображение: Midjourney

Место: Екатеринбург, Конференц-зал №3б отеля «Московская горка», ул. Московская, д. 131

07-05-2025 12:45 144