OpenAI disputa la afirmación del organismo de control de que violó la nueva ley de seguridad de IA de California con el lanzamiento de su último modelo

OpenAI podría haber violado la nueva ley de seguridad de IA de California con el lanzamiento de su último modelo de codificación, según alegaciones de un grupo de vigilancia de IA.

Una violación potencialmente expondría a la empresa a multas de millones de dólares, y el caso podría convertirse en una prueba pionera de las disposiciones de la nueva ley.

Video recomendado


Un portavoz de OpenAI disputó la posición del grupo de vigilancia, diciendo a Fortune que la compañía estaba “segura de cumplir con las leyes de seguridad fronteriza, incluyendo la SB 53.”

La controversia se centra en GPT-5.3-Codex, el modelo de codificación más reciente de OpenAI, que fue lanzado la semana pasada. El modelo forma parte de un esfuerzo de OpenAI por recuperar su liderazgo en codificación impulsada por IA y, según datos de referencia publicados por OpenAI, muestra un rendimiento notablemente superior en tareas de codificación en comparación con versiones anteriores tanto de OpenAI como de competidores como Anthropic. Sin embargo, el modelo también ha planteado preocupaciones de ciberseguridad sin precedentes.

El CEO Sam Altman afirmó que el modelo fue el primero en alcanzar la categoría de “alto” riesgo en ciberseguridad según el Marco de Preparación de la empresa, un sistema interno de clasificación de riesgos que OpenAI utiliza para los lanzamientos de modelos. Esto significa que OpenAI está clasificando esencialmente el modelo como lo suficientemente capaz en codificación como para potencialmente facilitar daños cibernéticos importantes, especialmente si se automatiza o se usa a gran escala.

El grupo de vigilancia de IA, el Proyecto Midas, afirma que OpenAI no cumplió con sus propios compromisos de seguridad—que ahora son legalmente vinculantes bajo la ley de California—con el lanzamiento del nuevo modelo de alto riesgo.

La SB 53 de California, que entró en vigor en enero, requiere que las principales empresas de IA publiquen y cumplan con sus propios marcos de seguridad, detallando cómo evitarán riesgos catastróficos—definidos como incidentes que causen más de 50 muertes o daños a la propiedad por más de mil millones de dólares—de sus modelos. También prohíbe a estas empresas hacer declaraciones engañosas sobre el cumplimiento.

El marco de seguridad de OpenAI requiere salvaguardas especiales para modelos con alto riesgo de ciberseguridad que están diseñados para evitar que la IA se vuelva descontrolada y realice acciones como actuar de manera engañosa, sabotear investigaciones de seguridad o ocultar sus capacidades reales. Sin embargo, el Proyecto Midas afirmó que, a pesar de activar el umbral de “alto riesgo” en ciberseguridad, OpenAI no pareció haber implementado las salvaguardas específicas contra desalineaciones antes del despliegue.

OpenAI dice que la interpretación del Proyecto Midas sobre la redacción en su Marco de Preparación es incorrecta, aunque también afirmó que la redacción en el marco es “ambigua” y que buscó aclarar la intención de esa redacción con una declaración en el informe de seguridad que la compañía publicó junto con GPT-5.3-Codex. En ese informe de seguridad, OpenAI dijo que las salvaguardas adicionales solo son necesarias cuando el alto riesgo cibernético ocurre “en conjunto con” autonomía a largo plazo—la capacidad de operar de manera independiente durante períodos prolongados. Dado que la compañía cree que GPT-5.3-Codex carece de esta autonomía, afirman que las salvaguardas no eran necesarias.

“GPT-5.3-Codex completó nuestro proceso completo de pruebas y gobernanza, como se detalla en la tarjeta del sistema publicada públicamente, y no demostró capacidades de autonomía a largo plazo según evaluaciones proxy y confirmadas por juicios de expertos internos, incluido nuestro Grupo Asesor de Seguridad,” dijo el portavoz. La compañía también ha mencionado que no cuenta con una forma definitiva de evaluar la autonomía a largo plazo de un modelo y, por lo tanto, depende de pruebas que cree pueden actuar como proxies para esta métrica mientras trabaja en desarrollar mejores métodos de evaluación.

Sin embargo, algunos investigadores de seguridad han disputado la interpretación de OpenAI. Nathan Calvin, vicepresidente de asuntos estatales y asesor legal general en Encode, dijo en una publicación en X: “En lugar de admitir que no siguieron su plan o que no lo actualizaron antes del lanzamiento, parece que OpenAI está diciendo que los criterios eran ambiguos. Después de leer los documentos relevantes… no me parecen ambiguos.”

El Proyecto Midas también afirma que OpenAI no puede probar de manera definitiva que el modelo carece de la autonomía necesaria para las medidas adicionales, ya que su modelo anterior, menos avanzado, ya superó los benchmarks globales para la realización autónoma de tareas. El grupo argumenta que, incluso si las reglas no estaban claras, OpenAI debería haberlas aclarado antes de lanzar el modelo.

Tyler Johnston, fundador del Proyecto Midas, calificó la posible violación como “especialmente embarazosa, dado lo bajo que establece la SB 53: básicamente solo adoptar un plan de seguridad voluntario de su elección y comunicarlo honestamente, cambiándolo según sea necesario, pero sin violar ni mentir al respecto.”

Si se abre una investigación y las alegaciones resultan ser correctas, la SB 53 permite sanciones sustanciales por violaciones, que podrían alcanzar millones de dólares dependiendo de la gravedad y duración del incumplimiento. Un representante de la Oficina del Fiscal General de California dijo a Fortune que el departamento estaba “comprometido a hacer cumplir las leyes de nuestro estado, incluyendo aquellas promulgadas para aumentar la transparencia y seguridad en el espacio emergente de IA.” Sin embargo, dijeron que el departamento no podía comentar, ni siquiera confirmar o negar, investigaciones potenciales o en curso.

Actualización, 10 de febrero: Esta historia ha sido actualizada para mover la declaración de OpenAI, en la que afirma que cumple con la ley de IA de California, a una posición más alta en la historia. También se cambió el titular para dejar claro que OpenAI está disputando las alegaciones del grupo de vigilancia. Además, la historia se actualizó para aclarar que la declaración de OpenAI en el informe de seguridad de GPT-5.3-Codex fue para aclarar lo que la compañía dice que era un lenguaje ambiguo en su Marco de Preparación.

Únase a nosotros en la Cumbre de Innovación en el Lugar de Trabajo de Fortune 19–20 de mayo de 2026, en Atlanta. La próxima era de innovación laboral ya está aquí—y el antiguo manual está siendo reescrito. En este evento exclusivo y enérgico, los líderes más innovadores del mundo se reunirán para explorar cómo la IA, la humanidad y la estrategia convergen para redefinir, una vez más, el futuro del trabajo. Regístrese ahora.

Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
  • Recompensa
  • Comentar
  • Republicar
  • Compartir
Comentar
0/400
Sin comentarios
  • Anclado

Opera con criptomonedas en cualquier momento y lugar
qrCode
Escanea para descargar la aplicación de Gate
Comunidad
Español
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)