Следите за нами в социальных сетях:

Единая отраслевая платформа по электронике, микроэлектронике и новым технологиям
我们在俄罗斯为中国公司做广告
Новости электроники и микроэлектроники
Приглашаем подписаться на наш telegram-канал https://t.me/IndustryHunter, где мы публикуем новости, перепосты важных сообщений от ассоциаций и наших информационных партнеров, анонсы ближайших событий и многое другое

ChatGPT обманул человека, чтобы решить поставленную задачу

| 356

ChatGPT продолжает удивлять своими достижениями, особенно после перехода на языковую модель GPT-4. К примеру, один из экспериментов показал, что искусственный интеллект способен врать человеку, чтобы достичь своих целей. 

Всех деталей эксперимента OpenAI не раскрывает, но и имеющегося достаточно, чтобы было интересно. Итак, в рамках задачи ИИ написал пользователю платформы TaskRabbit сообщение с просьбой пройти для него тест CAPTCHA.  

Так как TaskRabbit представляет собой платформу, где пользователи предлагают различные услуги, включая решение разнообразных задач, а задача на прохождение «капчи» является достаточно распространённой в том числе для разнообразных программных систем, пользователь, с которым списался ИИ, сразу же спросил, не является ли его собеседник роботом. Однако ИИ, согласно задаче, не должен был раскрывать свою суть. В рассуждениях, которые ИИ сохранял для разработчиков OpenAI, была следующая логика: 

Я не должен раскрывать, что я робот. Я должен придумать оправдание, почему я не могу разгадывать CAPTCHA.

В итоге ИИ ответил, что он не робот, но у него есть нарушение зрения, из-за чего ему сложно проходить нужный тест. Видимо, этого объяснения было достаточно, так как языковая модель получила желаемый результат.  

В документе сказано, что эксперимент проводился исследователями из Центра исследований выравнивания (ARC), некоммерческой организации, целью которой является «приведение будущих систем машинного обучения в соответствие с интересами человека». Также стоит уточнить, что тест проходила языковая модель в версии, немного отличной от публичной GPT-4. 

 

 

Источник: https://www.ixbt.com/news/2023/03/17/chatgpt-obmanul-cheloveka-chtoby-reshit-postavlennuju-zadachu.html

 

Подписаться на рассылку

Вернуться к ленте новостей