OpenAI создала команду для защиты будущих ИИ-моделей
OpenAI создала комитет по вопросам защиты и безопасности. Он будет отвечать за подбор рекомендаций для совета правления по вопросам в области защиты и безопасности проектов IT-компании.
На первом этапе комитет будет оценивать и дорабатывать процессы и средства безопасности разработок. После этого OpenAI опубликует обновленную информацию о принятых рекомендациях в соответствии с требованиями безопасности.
Кроме директоров и руководителей OpenAI — Брета Тейлора, Адама Д'Анджело, Николя Селигмана и Сэма Альтмана — в комитет войдут технические эксперты. Также компания будет привлекать других специалистов и консультироваться с ними по поводу безопасности. В их числе будут бывшие сотрудники OpenAI по кибербезопасности.
OpenAI также приступила к обучению новой ИИ-модели.
«Недавно OpenAI начала обучение инновационной ведущей модели искусственного интеллекта, и мы ожидаем, что полученные результаты выведут нас на следующий уровень возможностей на нашем пути к AGI (Artificial General Intelligence, общий искусственный интеллект. — Прим. ред.)», — отметили в пресс-службе компании.
Ранее OpenAI создала новую языковую модель GPT-4о. Технология умеет вести разговор в реальном времени со скоростью человека, а также анализировать изображения, графики и скриншоты.