Специалисты OpenAI обнаружили токсичное поведение в моделях ИИ
Сотрудники OpenAI провели исследование и выяснили, что в моделях ИИ появляются несогласованные моменты. В основном они кажутся людям случайными, бессвязными, однако исследователи обнаружили в них закономерности, пишет TechCrunch.
По данным издания, такие особенности в целом соответствуют токсичному поведению в ответах. Это значит, что искусственный интеллект может обманывать или давать информацию, которая не соответствует запросу. При этом пока специалисты OpenAI могут сами повышать или понижать количество таких ответов.
Эти исследования проводятся для выявления небезопасных сценариев поведения ИИ. Акцент сделан на том, чтобы исключить их. Тем не менее пока специалисты компании не могут до конца понять, почему искусственный интеллект начинает лгать.