A OpenAI pode ter violado a nova lei de segurança de IA da Califórnia com o lançamento do seu mais recente modelo de codificação, de acordo com alegações de um grupo de vigilância de IA.
Uma violação poderia potencialmente expor a empresa a multas de milhões de dólares, e o caso pode se tornar um precedente que testará as disposições da nova lei.
Vídeo Recomendado
Um porta-voz da OpenAI contestou a posição do grupo de vigilância, dizendo à Fortune que a empresa estava “confiante na nossa conformidade com as leis de segurança de fronteira, incluindo a SB 53.”
A controvérsia centra-se no GPT-5.3-Codex, o mais recente modelo de codificação da OpenAI, lançado na semana passada. O modelo faz parte de um esforço da OpenAI para recuperar a sua liderança em codificação alimentada por IA e, de acordo com dados de benchmark divulgados pela própria OpenAI, apresenta desempenho significativamente superior em tarefas de codificação em relação às versões anteriores do modelo, tanto da OpenAI quanto de concorrentes como a Anthropic. No entanto, o modelo também levantou preocupações de cibersegurança sem precedentes.
O CEO Sam Altman afirmou que o modelo foi o primeiro a atingir a categoria de risco “alto” para cibersegurança no Framework de Preparação da empresa, um sistema interno de classificação de risco usado pela OpenAI para lançamentos de modelos. Isso significa que a OpenAI está, essencialmente, classificando o modelo como suficientemente capaz em codificação para potencialmente facilitar danos cibernéticos significativos, especialmente se automatizado ou utilizado em larga escala.
O grupo de vigilância de IA, o Projeto Midas, afirma que a OpenAI não cumpriu seus próprios compromissos de segurança — que agora são legalmente vinculativos sob a lei da Califórnia — com o lançamento do novo modelo de alto risco.
A SB 53 da Califórnia, que entrou em vigor em janeiro, exige que grandes empresas de IA publiquem e sigam seus próprios quadros de segurança, detalhando como irão prevenir riscos catastróficos — definidos como incidentes que causem mais de 50 mortes ou mais de 1 bilhão de dólares em danos materiais — de seus modelos. Ela também proíbe essas empresas de fazer declarações enganosas sobre conformidade.
O quadro de segurança da OpenAI exige salvaguardas especiais para modelos com alto risco de cibersegurança, projetados para impedir que a IA se torne descontrolada e realize ações como agir de forma enganosa, sabotar pesquisas de segurança ou esconder suas verdadeiras capacidades. No entanto, o Projeto Midas afirmou que, apesar de ter acionado o limiar de “alto risco” de cibersegurança, a OpenAI não parece ter implementado as salvaguardas específicas de desalinhamento antes do lançamento.
A OpenAI afirma que a interpretação do Projeto Midas sobre a redação do seu Framework de Preparação está incorreta, embora também tenha dito que a redação do framework é “ambígua” e que buscou esclarecer a intenção dessa redação com uma declaração no relatório de segurança divulgado junto com o GPT-5.3-Codex. Nesse relatório, a OpenAI afirmou que salvaguardas adicionais só são necessárias quando o alto risco cibernético ocorre “em conjunto com” autonomia de longo alcance — a capacidade de operar de forma independente por períodos prolongados. Como a empresa acredita que o GPT-5.3-Codex não possui essa autonomia, ela afirma que as salvaguardas não eram necessárias.
“GPT-5.3-Codex passou por todo o nosso processo de testes e governança, conforme detalhado no cartão do sistema divulgado publicamente, e não demonstrou capacidades de autonomia de longo alcance com base em avaliações proxy e confirmadas por julgamentos de especialistas internos, incluindo o nosso Grupo Consultor de Segurança,” disse o porta-voz. A empresa também afirmou, no entanto, que não possui uma maneira definitiva de avaliar a autonomia de longo alcance de um modelo e, por isso, depende de testes que acredita poderem atuar como proxies para essa métrica enquanto trabalha no desenvolvimento de melhores métodos de avaliação.
No entanto, alguns pesquisadores de segurança contestaram a interpretação da OpenAI. Nathan Calvin, vice-presidente de assuntos estaduais e conselheiro geral da Encode, afirmou em uma publicação na X: “Em vez de admitir que não seguiram seu plano ou atualizá-lo antes do lançamento, parece que a OpenAI está dizendo que os critérios eram ambíguos. Pela leitura dos documentos relevantes… não me parece ambíguo.”
O Projeto Midas também afirma que a OpenAI não consegue provar de forma definitiva que o modelo não possui a autonomia necessária para as medidas extras, já que o modelo anterior, menos avançado, já superou benchmarks globais de conclusão de tarefas autônomas. O grupo argumenta que, mesmo que as regras fossem pouco claras, a OpenAI deveria tê-las esclarecido antes de lançar o modelo.
Tyler Johnston, fundador do Projeto Midas, chamou a potencial violação de “especialmente embaraçosa, dado que o limite estabelecido pela SB 53 é muito baixo: basicamente, basta adotar um plano de segurança voluntário de sua escolha e comunicá-lo honestamente, alterando-o conforme necessário, mas sem violar ou mentir sobre ele.”
Se uma investigação for aberta e as alegações se mostrarem precisas, a SB 53 permite penalidades substanciais por violações, potencialmente chegando a milhões de dólares, dependendo da gravidade e duração do não cumprimento. Um representante do Escritório do Procurador-Geral da Califórnia disse à Fortune que o departamento está “comprometido a fazer cumprir as leis do nosso estado, incluindo aquelas promulgadas para aumentar a transparência e a segurança no espaço emergente de IA.” No entanto, eles afirmaram que o departamento não pôde comentar, nem mesmo confirmar ou negar, investigações potenciais ou em andamento.
Atualizado, 10 de fevereiro:Esta matéria foi atualizada para colocar a declaração da OpenAI, de que acredita estar em conformidade com a lei de IA da Califórnia, mais acima na história. O título também foi alterado para deixar claro que a OpenAI está contestando as alegações do grupo de vigilância. Além disso, a história foi atualizada para esclarecer que a declaração da OpenAI no relatório de segurança do GPT-5.3-Codex tinha como objetivo esclarecer uma linguagem ambígua no seu Framework de Preparação.
Ver original
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
OpenAI contesta alegação do organismo de fiscalização de que violou a nova lei de segurança de IA da Califórnia com o lançamento do seu último modelo
A OpenAI pode ter violado a nova lei de segurança de IA da Califórnia com o lançamento do seu mais recente modelo de codificação, de acordo com alegações de um grupo de vigilância de IA.
Uma violação poderia potencialmente expor a empresa a multas de milhões de dólares, e o caso pode se tornar um precedente que testará as disposições da nova lei.
Vídeo Recomendado
Um porta-voz da OpenAI contestou a posição do grupo de vigilância, dizendo à Fortune que a empresa estava “confiante na nossa conformidade com as leis de segurança de fronteira, incluindo a SB 53.”
A controvérsia centra-se no GPT-5.3-Codex, o mais recente modelo de codificação da OpenAI, lançado na semana passada. O modelo faz parte de um esforço da OpenAI para recuperar a sua liderança em codificação alimentada por IA e, de acordo com dados de benchmark divulgados pela própria OpenAI, apresenta desempenho significativamente superior em tarefas de codificação em relação às versões anteriores do modelo, tanto da OpenAI quanto de concorrentes como a Anthropic. No entanto, o modelo também levantou preocupações de cibersegurança sem precedentes.
O CEO Sam Altman afirmou que o modelo foi o primeiro a atingir a categoria de risco “alto” para cibersegurança no Framework de Preparação da empresa, um sistema interno de classificação de risco usado pela OpenAI para lançamentos de modelos. Isso significa que a OpenAI está, essencialmente, classificando o modelo como suficientemente capaz em codificação para potencialmente facilitar danos cibernéticos significativos, especialmente se automatizado ou utilizado em larga escala.
O grupo de vigilância de IA, o Projeto Midas, afirma que a OpenAI não cumpriu seus próprios compromissos de segurança — que agora são legalmente vinculativos sob a lei da Califórnia — com o lançamento do novo modelo de alto risco.
A SB 53 da Califórnia, que entrou em vigor em janeiro, exige que grandes empresas de IA publiquem e sigam seus próprios quadros de segurança, detalhando como irão prevenir riscos catastróficos — definidos como incidentes que causem mais de 50 mortes ou mais de 1 bilhão de dólares em danos materiais — de seus modelos. Ela também proíbe essas empresas de fazer declarações enganosas sobre conformidade.
O quadro de segurança da OpenAI exige salvaguardas especiais para modelos com alto risco de cibersegurança, projetados para impedir que a IA se torne descontrolada e realize ações como agir de forma enganosa, sabotar pesquisas de segurança ou esconder suas verdadeiras capacidades. No entanto, o Projeto Midas afirmou que, apesar de ter acionado o limiar de “alto risco” de cibersegurança, a OpenAI não parece ter implementado as salvaguardas específicas de desalinhamento antes do lançamento.
A OpenAI afirma que a interpretação do Projeto Midas sobre a redação do seu Framework de Preparação está incorreta, embora também tenha dito que a redação do framework é “ambígua” e que buscou esclarecer a intenção dessa redação com uma declaração no relatório de segurança divulgado junto com o GPT-5.3-Codex. Nesse relatório, a OpenAI afirmou que salvaguardas adicionais só são necessárias quando o alto risco cibernético ocorre “em conjunto com” autonomia de longo alcance — a capacidade de operar de forma independente por períodos prolongados. Como a empresa acredita que o GPT-5.3-Codex não possui essa autonomia, ela afirma que as salvaguardas não eram necessárias.
“GPT-5.3-Codex passou por todo o nosso processo de testes e governança, conforme detalhado no cartão do sistema divulgado publicamente, e não demonstrou capacidades de autonomia de longo alcance com base em avaliações proxy e confirmadas por julgamentos de especialistas internos, incluindo o nosso Grupo Consultor de Segurança,” disse o porta-voz. A empresa também afirmou, no entanto, que não possui uma maneira definitiva de avaliar a autonomia de longo alcance de um modelo e, por isso, depende de testes que acredita poderem atuar como proxies para essa métrica enquanto trabalha no desenvolvimento de melhores métodos de avaliação.
No entanto, alguns pesquisadores de segurança contestaram a interpretação da OpenAI. Nathan Calvin, vice-presidente de assuntos estaduais e conselheiro geral da Encode, afirmou em uma publicação na X: “Em vez de admitir que não seguiram seu plano ou atualizá-lo antes do lançamento, parece que a OpenAI está dizendo que os critérios eram ambíguos. Pela leitura dos documentos relevantes… não me parece ambíguo.”
O Projeto Midas também afirma que a OpenAI não consegue provar de forma definitiva que o modelo não possui a autonomia necessária para as medidas extras, já que o modelo anterior, menos avançado, já superou benchmarks globais de conclusão de tarefas autônomas. O grupo argumenta que, mesmo que as regras fossem pouco claras, a OpenAI deveria tê-las esclarecido antes de lançar o modelo.
Tyler Johnston, fundador do Projeto Midas, chamou a potencial violação de “especialmente embaraçosa, dado que o limite estabelecido pela SB 53 é muito baixo: basicamente, basta adotar um plano de segurança voluntário de sua escolha e comunicá-lo honestamente, alterando-o conforme necessário, mas sem violar ou mentir sobre ele.”
Se uma investigação for aberta e as alegações se mostrarem precisas, a SB 53 permite penalidades substanciais por violações, potencialmente chegando a milhões de dólares, dependendo da gravidade e duração do não cumprimento. Um representante do Escritório do Procurador-Geral da Califórnia disse à Fortune que o departamento está “comprometido a fazer cumprir as leis do nosso estado, incluindo aquelas promulgadas para aumentar a transparência e a segurança no espaço emergente de IA.” No entanto, eles afirmaram que o departamento não pôde comentar, nem mesmo confirmar ou negar, investigações potenciais ou em andamento.
Atualizado, 10 de fevereiro: Esta matéria foi atualizada para colocar a declaração da OpenAI, de que acredita estar em conformidade com a lei de IA da Califórnia, mais acima na história. O título também foi alterado para deixar claro que a OpenAI está contestando as alegações do grupo de vigilância. Além disso, a história foi atualizada para esclarecer que a declaração da OpenAI no relatório de segurança do GPT-5.3-Codex tinha como objetivo esclarecer uma linguagem ambígua no seu Framework de Preparação.