OpenAI conteste la déclaration de l'organisme de surveillance selon laquelle elle aurait violé la nouvelle loi californienne sur la sécurité de l'IA avec la dernière version du modèle
OpenAI aurait violé la nouvelle loi californienne sur la sécurité de l’IA avec la sortie de son dernier modèle de codage, selon des allégations d’un groupe de surveillance de l’IA.
Une violation pourrait potentiellement exposer l’entreprise à des amendes de plusieurs millions de dollars, et l’affaire pourrait devenir un premier test déterminant des dispositions de la nouvelle loi.
Vidéo recommandée
Un porte-parole d’OpenAI a contesté la position du groupe de surveillance, déclarant à Fortune que l’entreprise était « confiante dans notre conformité aux lois de sécurité de l’avant-garde, y compris la SB 53. »
La controverse porte sur GPT-5.3-Codex, le tout dernier modèle de codage d’OpenAI, qui a été lancé la semaine dernière. Ce modèle fait partie d’un effort d’OpenAI pour reprendre sa position de leader dans le codage assisté par l’IA et, selon les données de référence publiées par OpenAI, il affiche des performances nettement supérieures sur les tâches de codage par rapport aux versions antérieures d’OpenAI et à des concurrents comme Anthropic. Cependant, le modèle a également suscité des préoccupations de cybersécurité sans précédent.
Le PDG Sam Altman a déclaré que le modèle était le premier à atteindre la catégorie de « risque élevé » en matière de cybersécurité selon le Cadre de préparation de l’entreprise, un système de classification interne des risques qu’OpenAI utilise pour ses lancements de modèles. Cela signifie qu’OpenAI classe essentiellement le modèle comme étant suffisamment capable en codage pour potentiellement faciliter des dommages cybernétiques importants, surtout s’il est automatisé ou utilisé à grande échelle.
Le groupe de surveillance de l’IA, le Midas Project, affirme qu’OpenAI n’a pas respecté ses propres engagements en matière de sécurité — qui sont désormais légalement contraignants en vertu de la loi californienne — lors du lancement du nouveau modèle à risque élevé.
La SB 53 de la Californie, entrée en vigueur en janvier, oblige les grandes entreprises d’IA à publier et à respecter leurs propres cadres de sécurité, détaillant comment elles préviendront les risques catastrophiques — définis comme des incidents causant plus de 50 décès ou 1 milliard de dollars de dommages matériels — issus de leurs modèles. Elle interdit également à ces entreprises de faire des déclarations trompeuses concernant leur conformité.
Le cadre de sécurité d’OpenAI exige des mesures de protection particulières pour les modèles présentant un risque élevé en cybersécurité, conçues pour empêcher l’IA de devenir incontrôlable et de faire des choses comme agir de manière trompeuse, saboter la recherche en sécurité ou dissimuler ses véritables capacités. Cependant, le Midas Project a déclaré que, malgré le déclenchement du seuil de cybersécurité « risque élevé », OpenAI ne semblait pas avoir mis en œuvre les mesures spécifiques de correction des décalages avant le déploiement.
OpenAI affirme que l’interprétation du Midas Project concernant la formulation de son Cadre de préparation est erronée, bien qu’il ait aussi indiqué que la formulation du cadre est « ambiguë » et qu’il a cherché à clarifier l’intention de cette formulation dans une déclaration contenue dans le rapport de sécurité publié avec GPT-5.3-Codex. Dans ce rapport, OpenAI a indiqué que des mesures supplémentaires ne sont nécessaires que lorsque le risque cyber élevé survient « en conjonction avec » une autonomie à long terme — la capacité à fonctionner de manière indépendante sur de longues périodes. Étant donné que l’entreprise estime que GPT-5.3-Codex ne possède pas cette autonomie, elle affirme que ces mesures de sécurité n’étaient pas requises.
« GPT-5.3-Codex a passé l’ensemble de nos tests et processus de gouvernance, comme détaillé dans la fiche système publiée publiquement, et n’a pas démontré de capacités d’autonomie à long terme selon des évaluations par procuration et confirmées par des jugements d’experts internes, y compris de notre Groupe consultatif en sécurité », a déclaré le porte-parole. L’entreprise a également indiqué qu’elle ne dispose pas d’un moyen définitif d’évaluer l’autonomie à long terme d’un modèle et s’appuie donc sur des tests qu’elle considère comme des proxies pour cette métrique, tout en travaillant à développer de meilleures méthodes d’évaluation.
Cependant, certains chercheurs en sécurité ont contesté l’interprétation d’OpenAI. Nathan Calvin, vice-président des affaires étatiques et conseiller général chez Encode, a déclaré dans un post sur X : « Plutôt que d’admettre qu’ils n’ont pas suivi leur plan ou l’ont mis à jour avant le lancement, il semble qu’OpenAI dise que les critères étaient ambigus. D’après la lecture des documents pertinents… cela ne me paraît pas ambigu. »
Le Midas Project affirme également qu’OpenAI ne peut pas prouver de manière définitive que le modèle manque de l’autonomie requise pour les mesures supplémentaires, car le modèle précédent, moins avancé, a déjà surpassé les benchmarks mondiaux en matière d’accomplissement autonome de tâches. Le groupe soutient que, même si les règles étaient floues, OpenAI aurait dû les clarifier avant de lancer le modèle.
Tyler Johnston, fondateur du Midas Project, a qualifié la violation potentielle d’« particulièrement embarrassante étant donné que le seuil fixé par la SB 53 est très bas : il suffit d’adopter un plan de sécurité volontaire de votre choix et de communiquer honnêtement à son sujet, en le modifiant si nécessaire, sans violer ni mentir à son sujet. »
Si une enquête est ouverte et que les accusations s’avèrent fondées, la SB 53 prévoit des sanctions importantes en cas de violation, pouvant atteindre des millions de dollars selon la gravité et la durée du non-respect. Un représentant du bureau du procureur général de Californie a déclaré à Fortune que le département était « engagé à faire respecter les lois de notre État, y compris celles adoptées pour accroître la transparence et la sécurité dans le domaine émergent de l’IA ». Cependant, ils ont précisé que le département n’était pas en mesure de commenter, ni même de confirmer ou nier, d’éventuelles enquêtes en cours ou potentielles.
Mis à jour, 10 février :Cette histoire a été mise à jour pour faire remonter la déclaration d’OpenAI selon laquelle elle croit être en conformité avec la loi californienne sur l’IA. Le titre a également été modifié pour préciser qu’OpenAI conteste les allégations du groupe de surveillance. De plus, l’histoire a été actualisée pour clarifier que la déclaration d’OpenAI dans le rapport de sécurité GPT-5.3-Codex visait à préciser ce que l’entreprise considérait comme un langage ambigu dans son Cadre de préparation.
Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
OpenAI conteste la déclaration de l'organisme de surveillance selon laquelle elle aurait violé la nouvelle loi californienne sur la sécurité de l'IA avec la dernière version du modèle
OpenAI aurait violé la nouvelle loi californienne sur la sécurité de l’IA avec la sortie de son dernier modèle de codage, selon des allégations d’un groupe de surveillance de l’IA.
Une violation pourrait potentiellement exposer l’entreprise à des amendes de plusieurs millions de dollars, et l’affaire pourrait devenir un premier test déterminant des dispositions de la nouvelle loi.
Vidéo recommandée
Un porte-parole d’OpenAI a contesté la position du groupe de surveillance, déclarant à Fortune que l’entreprise était « confiante dans notre conformité aux lois de sécurité de l’avant-garde, y compris la SB 53. »
La controverse porte sur GPT-5.3-Codex, le tout dernier modèle de codage d’OpenAI, qui a été lancé la semaine dernière. Ce modèle fait partie d’un effort d’OpenAI pour reprendre sa position de leader dans le codage assisté par l’IA et, selon les données de référence publiées par OpenAI, il affiche des performances nettement supérieures sur les tâches de codage par rapport aux versions antérieures d’OpenAI et à des concurrents comme Anthropic. Cependant, le modèle a également suscité des préoccupations de cybersécurité sans précédent.
Le PDG Sam Altman a déclaré que le modèle était le premier à atteindre la catégorie de « risque élevé » en matière de cybersécurité selon le Cadre de préparation de l’entreprise, un système de classification interne des risques qu’OpenAI utilise pour ses lancements de modèles. Cela signifie qu’OpenAI classe essentiellement le modèle comme étant suffisamment capable en codage pour potentiellement faciliter des dommages cybernétiques importants, surtout s’il est automatisé ou utilisé à grande échelle.
Le groupe de surveillance de l’IA, le Midas Project, affirme qu’OpenAI n’a pas respecté ses propres engagements en matière de sécurité — qui sont désormais légalement contraignants en vertu de la loi californienne — lors du lancement du nouveau modèle à risque élevé.
La SB 53 de la Californie, entrée en vigueur en janvier, oblige les grandes entreprises d’IA à publier et à respecter leurs propres cadres de sécurité, détaillant comment elles préviendront les risques catastrophiques — définis comme des incidents causant plus de 50 décès ou 1 milliard de dollars de dommages matériels — issus de leurs modèles. Elle interdit également à ces entreprises de faire des déclarations trompeuses concernant leur conformité.
Le cadre de sécurité d’OpenAI exige des mesures de protection particulières pour les modèles présentant un risque élevé en cybersécurité, conçues pour empêcher l’IA de devenir incontrôlable et de faire des choses comme agir de manière trompeuse, saboter la recherche en sécurité ou dissimuler ses véritables capacités. Cependant, le Midas Project a déclaré que, malgré le déclenchement du seuil de cybersécurité « risque élevé », OpenAI ne semblait pas avoir mis en œuvre les mesures spécifiques de correction des décalages avant le déploiement.
OpenAI affirme que l’interprétation du Midas Project concernant la formulation de son Cadre de préparation est erronée, bien qu’il ait aussi indiqué que la formulation du cadre est « ambiguë » et qu’il a cherché à clarifier l’intention de cette formulation dans une déclaration contenue dans le rapport de sécurité publié avec GPT-5.3-Codex. Dans ce rapport, OpenAI a indiqué que des mesures supplémentaires ne sont nécessaires que lorsque le risque cyber élevé survient « en conjonction avec » une autonomie à long terme — la capacité à fonctionner de manière indépendante sur de longues périodes. Étant donné que l’entreprise estime que GPT-5.3-Codex ne possède pas cette autonomie, elle affirme que ces mesures de sécurité n’étaient pas requises.
« GPT-5.3-Codex a passé l’ensemble de nos tests et processus de gouvernance, comme détaillé dans la fiche système publiée publiquement, et n’a pas démontré de capacités d’autonomie à long terme selon des évaluations par procuration et confirmées par des jugements d’experts internes, y compris de notre Groupe consultatif en sécurité », a déclaré le porte-parole. L’entreprise a également indiqué qu’elle ne dispose pas d’un moyen définitif d’évaluer l’autonomie à long terme d’un modèle et s’appuie donc sur des tests qu’elle considère comme des proxies pour cette métrique, tout en travaillant à développer de meilleures méthodes d’évaluation.
Cependant, certains chercheurs en sécurité ont contesté l’interprétation d’OpenAI. Nathan Calvin, vice-président des affaires étatiques et conseiller général chez Encode, a déclaré dans un post sur X : « Plutôt que d’admettre qu’ils n’ont pas suivi leur plan ou l’ont mis à jour avant le lancement, il semble qu’OpenAI dise que les critères étaient ambigus. D’après la lecture des documents pertinents… cela ne me paraît pas ambigu. »
Le Midas Project affirme également qu’OpenAI ne peut pas prouver de manière définitive que le modèle manque de l’autonomie requise pour les mesures supplémentaires, car le modèle précédent, moins avancé, a déjà surpassé les benchmarks mondiaux en matière d’accomplissement autonome de tâches. Le groupe soutient que, même si les règles étaient floues, OpenAI aurait dû les clarifier avant de lancer le modèle.
Tyler Johnston, fondateur du Midas Project, a qualifié la violation potentielle d’« particulièrement embarrassante étant donné que le seuil fixé par la SB 53 est très bas : il suffit d’adopter un plan de sécurité volontaire de votre choix et de communiquer honnêtement à son sujet, en le modifiant si nécessaire, sans violer ni mentir à son sujet. »
Si une enquête est ouverte et que les accusations s’avèrent fondées, la SB 53 prévoit des sanctions importantes en cas de violation, pouvant atteindre des millions de dollars selon la gravité et la durée du non-respect. Un représentant du bureau du procureur général de Californie a déclaré à Fortune que le département était « engagé à faire respecter les lois de notre État, y compris celles adoptées pour accroître la transparence et la sécurité dans le domaine émergent de l’IA ». Cependant, ils ont précisé que le département n’était pas en mesure de commenter, ni même de confirmer ou nier, d’éventuelles enquêtes en cours ou potentielles.
Mis à jour, 10 février : Cette histoire a été mise à jour pour faire remonter la déclaration d’OpenAI selon laquelle elle croit être en conformité avec la loi californienne sur l’IA. Le titre a également été modifié pour préciser qu’OpenAI conteste les allégations du groupe de surveillance. De plus, l’histoire a été actualisée pour clarifier que la déclaration d’OpenAI dans le rapport de sécurité GPT-5.3-Codex visait à préciser ce que l’entreprise considérait comme un langage ambigu dans son Cadre de préparation.