OpenAI доказал, что ИИ-модели способны осознанно обманывать людей

Модели искусственного интеллекта специально лгут и скрывают сами факты обмана, пишет TechCrunch. Этот вывод следует из отчета OpenAI о ложной информации от ИИ.
Аналитики компании опубликовали результаты исследования, доказывающего эффективность анти-обманной технологии, которую протестировали в компании. Эксперты выяснили, что модели ИИ намеренно прибегают к обману, чтобы пройти необходимые им тесты.
«Самые распространенные ошибки связаны с простыми формами обмана — например, когда ИИ притворяется, что выполнил задачу, хотя на самом деле этого не сделал», — цитирует TechCrunch отчет аналитиков.
Речь идет в том числе о том, какие формы лжи будет использовать ИИ в будущем. Авторы исследования хотят научиться их прогнозировать.
Вместе с этим разработчики не могут научить нейросети перестать обманывать пользователей, потому что подобные тесты способны заставить ИИ-модели «хитрить еще сильнее, чтобы избегать обмана», как отмечается в материале.
По мере усложнения задач, выполняемых с помощью искусственного интеллекта,
потенциал намеренного обмана нейросетей может вырасти, говорится в тексте
исследования. Также допускается, что ИИ можно натренировать на скрытный и
целенаправленный обман, который почти невозможно обнаружить до определенного
момента.