OpenAI, по мнению группы наблюдателей за ИИ, могла нарушить новый закон Калифорнии о безопасности искусственного интеллекта с выпуском своей последней модели кодирования.
Нарушение может потенциально привести к штрафам в миллионы долларов, а дело может стать прецедентным первым испытанием положений нового закона.
Рекомендуемое видео
Представитель OpenAI опроверг позицию наблюдателей, заявив Fortune, что компания «уверена в соблюдении наших передовых законов о безопасности, включая SB 53».
Спор связан с GPT-5.3-Codex, новейшей моделью кодирования от OpenAI, которая была выпущена на прошлой неделе. Модель является частью усилий OpenAI по восстановлению лидерства в области кодирования на базе ИИ и, согласно опубликованным OpenAI данным бенчмарков, показывает значительно более высокую производительность в задачах кодирования по сравнению с предыдущими версиями моделей как от OpenAI, так и от конкурентов, таких как Anthropic. Однако модель также вызвала беспрецедентные опасения по вопросам кибербезопасности.
Генеральный директор Сэм Альтман заявил, что модель впервые попала в категорию «высокого» риска по кибербезопасности в рамках внутренней системы классификации рисков OpenAI — Framework Preparedness. Это означает, что OpenAI фактически классифицирует модель как достаточно способную в области кодирования, чтобы потенциально способствовать значительному киберриску, особенно при автоматизированном использовании или масштабных внедрениях.
Группа наблюдателей за ИИ, проект Midas, утверждает, что OpenAI не соблюдает свои собственные обязательства по безопасности, которые теперь являются юридически обязательными согласно закону Калифорнии, с запуском новой модели высокого риска.
Закон SB 53, вступивший в силу в январе, требует от крупных компаний, работающих с ИИ, публиковать и придерживаться собственных рамок безопасности, подробно описывающих, как они будут предотвращать катастрофические риски — такие как инциденты, повлекшие более 50 смертей или ущерб имуществу на сумму более 1 миллиарда долларов. Также он запрещает этим компаниям делать вводящие в заблуждение заявления о соответствии.
Рамки безопасности OpenAI требуют специальных мер предосторожности для моделей с высоким киберриском, предназначенных для предотвращения сбоя ИИ и таких действий, как обман, саботаж безопасности или сокрытие своих истинных возможностей. Однако группа Midas заявила, что, несмотря на достижение порога «высокого риска» по кибербезопасности, OpenAI, по-видимому, не внедрила конкретные меры по предотвращению несоответствий перед запуском.
OpenAI утверждает, что интерпретация группы Midas относительно формулировок в их Framework Preparedness неверна, хотя также отметил, что формулировки в рамках «двусмысленны», и он стремился прояснить их смысл в заявлении в отчёте о безопасности, опубликованном вместе с GPT-5.3-Codex. В этом отчёте OpenAI заявил, что дополнительные меры предосторожности необходимы только в случае, если высокий киберрисковый уровень возникает «в сочетании с» возможностью автономной работы на длительный срок — способностью функционировать независимо в течение продолжительного времени. Поскольку компания считает, что GPT-5.3-Codex не обладает такой автономией, они считают, что дополнительные меры не требуются.
«GPT-5.3-Codex прошёл полный цикл тестирования и управления, как подробно описано в системе, опубликованной в открытом доступе, и не продемонстрировал возможности долгосрочной автономии на основе прокси-оценок, подтверждённых внутренними экспертами, включая нашу Группу по безопасности», — заявил представитель. Также компания отметила, что у неё нет окончательного метода оценки долгосрочной автономии модели, и она полагается на тесты, которые, по её мнению, могут служить прокси для этого показателя, пока не разработает более точные методы оценки.
Некоторые исследователи в области безопасности оспаривают интерпретацию OpenAI. Вице-президент по государственным делам и генеральный юрист Encode Натан Кальвин написал в X: «Вместо того чтобы признать, что они не следовали своему плану или не обновили его перед выпуском, кажется, что OpenAI говорит, что критерии были двусмысленны. Исходя из чтения соответствующих документов… мне это не кажется двусмысленным».
Группа Midas также утверждает, что OpenAI не может окончательно доказать, что модель лишена необходимой автономии для применения дополнительных мер, поскольку их предыдущая, менее продвинутая модель уже превосходила мировые бенчмарки по выполнению автономных задач. Группа считает, что даже если правила были неясны, OpenAI должна была прояснить их до выпуска модели.
Основатель Midas, Тайлер Джонстон, назвал возможное нарушение «особенно неловким, учитывая, что минимальный уровень, установленный SB 53, очень низкий: фактически, достаточно просто принять добровольный план безопасности по своему выбору и честно о нём сообщать, при необходимости изменяя его, но не нарушая или лживая о нём».
Если расследование будет начато и обвинения подтвердятся, закон SB 53 предусматривает значительные штрафы за нарушения, которые могут достигать миллионов долларов в зависимости от степени и продолжительности несоблюдения требований. Представитель офиса Генерального прокурора Калифорнии заявил Fortune, что ведомство «привержено обеспечению соблюдения законов штата, включая те, что направлены на повышение прозрачности и безопасности в сфере развивающегося ИИ». Однако он добавил, что ведомство не может комментировать, даже подтверждать или опровергать, возможные или текущие расследования.
Обновлено, 10 февраля:Эта статья обновлена, чтобы более явно указать, что заявление OpenAI о соответствии калифорнийскому закону об ИИ было перемещено выше по тексту. Заголовок также изменён, чтобы подчеркнуть, что OpenAI оспаривает обвинения группы наблюдателей. Кроме того, в статье уточнено, что заявление OpenAI в отчёте о безопасности GPT-5.3-Codex было сделано для разъяснения двусмысленных формулировок в их Framework Preparedness.
Посмотреть Оригинал
На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
OpenAI оспаривает утверждение надзорного органа о нарушении им нового закона Калифорнии о безопасности ИИ с выпуском последней модели
OpenAI, по мнению группы наблюдателей за ИИ, могла нарушить новый закон Калифорнии о безопасности искусственного интеллекта с выпуском своей последней модели кодирования.
Нарушение может потенциально привести к штрафам в миллионы долларов, а дело может стать прецедентным первым испытанием положений нового закона.
Рекомендуемое видео
Представитель OpenAI опроверг позицию наблюдателей, заявив Fortune, что компания «уверена в соблюдении наших передовых законов о безопасности, включая SB 53».
Спор связан с GPT-5.3-Codex, новейшей моделью кодирования от OpenAI, которая была выпущена на прошлой неделе. Модель является частью усилий OpenAI по восстановлению лидерства в области кодирования на базе ИИ и, согласно опубликованным OpenAI данным бенчмарков, показывает значительно более высокую производительность в задачах кодирования по сравнению с предыдущими версиями моделей как от OpenAI, так и от конкурентов, таких как Anthropic. Однако модель также вызвала беспрецедентные опасения по вопросам кибербезопасности.
Генеральный директор Сэм Альтман заявил, что модель впервые попала в категорию «высокого» риска по кибербезопасности в рамках внутренней системы классификации рисков OpenAI — Framework Preparedness. Это означает, что OpenAI фактически классифицирует модель как достаточно способную в области кодирования, чтобы потенциально способствовать значительному киберриску, особенно при автоматизированном использовании или масштабных внедрениях.
Группа наблюдателей за ИИ, проект Midas, утверждает, что OpenAI не соблюдает свои собственные обязательства по безопасности, которые теперь являются юридически обязательными согласно закону Калифорнии, с запуском новой модели высокого риска.
Закон SB 53, вступивший в силу в январе, требует от крупных компаний, работающих с ИИ, публиковать и придерживаться собственных рамок безопасности, подробно описывающих, как они будут предотвращать катастрофические риски — такие как инциденты, повлекшие более 50 смертей или ущерб имуществу на сумму более 1 миллиарда долларов. Также он запрещает этим компаниям делать вводящие в заблуждение заявления о соответствии.
Рамки безопасности OpenAI требуют специальных мер предосторожности для моделей с высоким киберриском, предназначенных для предотвращения сбоя ИИ и таких действий, как обман, саботаж безопасности или сокрытие своих истинных возможностей. Однако группа Midas заявила, что, несмотря на достижение порога «высокого риска» по кибербезопасности, OpenAI, по-видимому, не внедрила конкретные меры по предотвращению несоответствий перед запуском.
OpenAI утверждает, что интерпретация группы Midas относительно формулировок в их Framework Preparedness неверна, хотя также отметил, что формулировки в рамках «двусмысленны», и он стремился прояснить их смысл в заявлении в отчёте о безопасности, опубликованном вместе с GPT-5.3-Codex. В этом отчёте OpenAI заявил, что дополнительные меры предосторожности необходимы только в случае, если высокий киберрисковый уровень возникает «в сочетании с» возможностью автономной работы на длительный срок — способностью функционировать независимо в течение продолжительного времени. Поскольку компания считает, что GPT-5.3-Codex не обладает такой автономией, они считают, что дополнительные меры не требуются.
«GPT-5.3-Codex прошёл полный цикл тестирования и управления, как подробно описано в системе, опубликованной в открытом доступе, и не продемонстрировал возможности долгосрочной автономии на основе прокси-оценок, подтверждённых внутренними экспертами, включая нашу Группу по безопасности», — заявил представитель. Также компания отметила, что у неё нет окончательного метода оценки долгосрочной автономии модели, и она полагается на тесты, которые, по её мнению, могут служить прокси для этого показателя, пока не разработает более точные методы оценки.
Некоторые исследователи в области безопасности оспаривают интерпретацию OpenAI. Вице-президент по государственным делам и генеральный юрист Encode Натан Кальвин написал в X: «Вместо того чтобы признать, что они не следовали своему плану или не обновили его перед выпуском, кажется, что OpenAI говорит, что критерии были двусмысленны. Исходя из чтения соответствующих документов… мне это не кажется двусмысленным».
Группа Midas также утверждает, что OpenAI не может окончательно доказать, что модель лишена необходимой автономии для применения дополнительных мер, поскольку их предыдущая, менее продвинутая модель уже превосходила мировые бенчмарки по выполнению автономных задач. Группа считает, что даже если правила были неясны, OpenAI должна была прояснить их до выпуска модели.
Основатель Midas, Тайлер Джонстон, назвал возможное нарушение «особенно неловким, учитывая, что минимальный уровень, установленный SB 53, очень низкий: фактически, достаточно просто принять добровольный план безопасности по своему выбору и честно о нём сообщать, при необходимости изменяя его, но не нарушая или лживая о нём».
Если расследование будет начато и обвинения подтвердятся, закон SB 53 предусматривает значительные штрафы за нарушения, которые могут достигать миллионов долларов в зависимости от степени и продолжительности несоблюдения требований. Представитель офиса Генерального прокурора Калифорнии заявил Fortune, что ведомство «привержено обеспечению соблюдения законов штата, включая те, что направлены на повышение прозрачности и безопасности в сфере развивающегося ИИ». Однако он добавил, что ведомство не может комментировать, даже подтверждать или опровергать, возможные или текущие расследования.
Обновлено, 10 февраля: Эта статья обновлена, чтобы более явно указать, что заявление OpenAI о соответствии калифорнийскому закону об ИИ было перемещено выше по тексту. Заголовок также изменён, чтобы подчеркнуть, что OpenAI оспаривает обвинения группы наблюдателей. Кроме того, в статье уточнено, что заявление OpenAI в отчёте о безопасности GPT-5.3-Codex было сделано для разъяснения двусмысленных формулировок в их Framework Preparedness.