19 Сентября 2025 | 15:58

OpenAI доказал, что ИИ-модели способны осознанно обманывать людей

Картинка OpenAI доказал, что ИИ-модели способны осознанно обманывать людей

Модели искусственного интеллекта специально лгут и скрывают сами факты обмана, пишет TechCrunch. Этот вывод следует из отчета OpenAI о ложной информации от ИИ.

Аналитики компании опубликовали результаты исследования, доказывающего эффективность анти-обманной технологии, которую протестировали в компании. Эксперты выяснили, что модели ИИ намеренно прибегают к обману, чтобы пройти необходимые им тесты.

«Самые распространенные ошибки связаны с простыми формами обмана — например, когда ИИ притворяется, что выполнил задачу, хотя на самом деле этого не сделал», — цитирует TechCrunch отчет аналитиков.

Речь идет в том числе о том, какие формы лжи будет использовать ИИ в будущем. Авторы исследования хотят научиться их прогнозировать.

Вместе с этим разработчики не могут научить нейросети перестать обманывать пользователей, потому что подобные тесты способны заставить ИИ-модели «хитрить еще сильнее, чтобы избегать обмана», как отмечается в материале.

По мере усложнения задач, выполняемых с помощью искусственного интеллекта, потенциал намеренного обмана нейросетей может вырасти, говорится в тексте исследования. Также допускается, что ИИ можно натренировать на скрытный и целенаправленный обман, который почти невозможно обнаружить до определенного момента.

Рейтинги
Лидеры рейтингов AdIndex
# Компания Рейтинг
1 Media Instinct №1 Медиабайеры 2024
2 Сбер Рекламодатель №1 2024
3 Realweb Digital Index 2024
–ейтинг@Mail.ru
Этот сайт использует cookie-файлы и рекомендательные технологии. Оставаясь на сайте, вы даете согласие на использование cookie-файлов и соглашаетесь с правилами применения рекомендательных систем на сайте.