OpenAI обновила свою систему обеспечения готовности — она используется для оценки безопасности ИИ-моделей и определения необходимых мер защиты во время разработки и внедрения. Компания заявила, что может скорректировать свои требования к безопасности, если другой вендор выпустит систему «высокого риска» без аналогичных мер защиты.
Это изменение отражает растущее конкурентное давление на разработчиков коммерческого ИИ, вынуждающее их быстро внедрять модели. Ранее OpenAI обвиняли в снижении стандартов безопасности в пользу более быстрого выпуска обновлений, а также в несвоевременном предоставлении отчётов с подробным описанием тестирования безопасности. В этом месяце 12 бывших сотрудников OpenAI подали ходатайство в деле Илона Маска против OpenAI, утверждая, что компания будет вынуждена ещё больше экономить на безопасности, если завершит запланированную корпоративную реструктуризацию. При этом сама OpenAI заявила, что не будет вносить эти изменения в политику бездумно и сохранит свои меры безопасности на «более высоком уровне».
Обновлённая система обеспечения готовности также ясно показывает, что вендор в большей степени полагается на автоматизированные оценки для ускорения разработки продукта. Компания утверждает, что, хотя она и не отказалась полностью от тестирования под руководством человека, она создала «растущий набор автоматизированных оценок», который предположительно может «соответствовать более быстрой релизной частоте».
В то же время, по данным Financial Times, OpenAI предоставила тестировщикам менее недели на проверку безопасности будущей крупной модели — сжатые сроки по сравнению с предыдущими релизами. Источники издания также сообщили, что многие тесты безопасности OpenAI теперь проводятся на более ранних версиях моделей, а не на версиях, выпущенных для широкой публики.
Другие изменения в системе ИИ-гиганта касаются того, как компания классифицирует модели в зависимости от риска, в том числе те, что могут скрывать свои возможности, обходить защитные меры, предотвращать их отключение и даже самовоспроизводиться. OpenAI заявляет, что теперь будет уделять внимание тому, соответствуют ли модели одному из двух пороговых значений: «высокая» или «критическая» способность. Первая категория здесь — это модель, которая может «усиливать существующие риски причинения серьёзного вреда». Вторая — модели, которые, по мнению компании, «создают беспрецедентные новые риски причинения серьёзного вреда».