OpenAIは、最新のコーディングモデルのリリースにより、AI監視団体の告発によってカリフォルニア州の新しいAI安全法に違反した可能性があると指摘されています。違反が認定されれば、同社は数百万ドルの罰金に直面する可能性があり、このケースは新法の規定を巡る先例となる最初の試験となるかもしれません。おすすめ動画* * *OpenAIのスポークスパーソンは、監視団体の立場に異議を唱え、_Fortune_に対して「我々はSB 53を含む最先端の安全法令の遵守に自信を持っている」と述べました。この論争は、OpenAIの最新コーディングモデルであるGPT-5.3-Codexに関するもので、先週リリースされました。このモデルは、OpenAIがAIを活用したコーディング分野でのリードを取り戻すための取り組みの一環であり、OpenAIが公開したベンチマークデータによると、従来のモデルや競合他社のAnthropicなどと比べてコーディングタスクの性能が著しく向上しています。しかし、同時に前例のないサイバーセキュリティ上の懸念も浮上しています。CEOのサム・アルトマンは、このモデルがOpenAIの内部リスク分類システムである準備性フレームワークにおいて、「高」リスクカテゴリーに初めて該当したと述べました。これは、OpenAIがこのモデルを、特に自動化や大規模利用時に重大なサイバー被害を引き起こす可能性があると分類していることを意味します。AI監視団体のマイダス・プロジェクトは、OpenAIが新たな高リスクモデルのリリースに伴い、カリフォルニア州法の下で法的に拘束力のある安全義務を守らなかったと主張しています。2023年1月に施行されたカリフォルニア州のSB 53は、大手AI企業に対し、自社の安全フレームワークを公開し、それに従うことを義務付けています。これには、50人以上の死亡や10億ドル以上の財産被害をもたらすような壊滅的リスクを防ぐための具体的な対策を詳細に記載することも含まれます。また、これらの企業が遵守に関して誤解を招くような発言をすることも禁止しています。OpenAIの安全フレームワークは、高サイバーリスクのモデルに対して、AIが誤動作したり、安全研究を妨害したり、真の能力を隠したりすることを防ぐための特別な安全策を要求しています。しかし、マイダス・プロジェクトは、リスク閾値の「高」に達したにもかかわらず、OpenAIが展開前に特定のミスマッチ防止策を実施していなかったと指摘しています。OpenAIは、マイダス・プロジェクトの解釈は誤りだと述べる一方で、フレームワークの文言は「曖昧」であるとも認め、その意図を明確にするために、GPT-5.3-Codexとともに公開した安全報告書の中で説明を試みたとしています。その報告書では、「長距離の自律性」と呼ばれる長期間にわたり独立して動作できる能力と「連動して」高サイバーリスクが発生した場合にのみ、追加の安全策が必要だと述べています。OpenAIは、GPT-5.3-Codexにはこの自律性が欠如していると考えているため、安全策は不要と判断しています。「GPT-5.3-Codexは、公開されたシステムカードに詳細に記載された完全なテストとガバナンスプロセスを経ており、代理評価や当社の安全諮問グループを含む内部専門家の判断によっても長距離自律性の能力は示されませんでした」とスポークスパーソンは述べました。ただし、同社はモデルの長距離自律性を評価する決定的な方法を持たず、より良い評価手法の開発に向けて代理指標となるテストに頼っているとも述べています。一方、安全研究者の中には、OpenAIの解釈に異議を唱える者もいます。Encodeの副社長兼総務のナサン・カルビンはX上の投稿で、「彼らは計画を守らなかったことやリリース前に更新しなかったことを認めるよりも、基準が曖昧だったと言っているように見える。関連資料を読んだ限りでは…私には曖昧には見えません」と述べています。マイダス・プロジェクトはまた、OpenAIがモデルに必要な自律性を欠いていることを証明できないと主張しています。なぜなら、同社の以前の、より低度のモデルはすでに自律的なタスク完遂のグローバルベンチマークを上回っているからです。グループは、ルールが不明確だったとしても、リリース前に明確にすべきだったと指摘しています。マイダス・プロジェクトの創設者タイラー・ジョンストンは、「SB 53の基準は非常に低いため、違反の可能性は特に恥ずかしい。基本的には、自分の選んだ安全計画を採用し、それについて正直にコミュニケーションをとり、必要に応じて変更するだけでよいのに、それを守らない、または嘘をつくことは許されません」と述べました。調査が開始され、告発が正しいと証明された場合、SB 53は違反に対して重大な罰則を科すことができ、違反の程度や期間に応じて数百万ドルに達する可能性があります。カリフォルニア州司法長官事務所の代表は、_Fortune_に対し、「我々は州の法律を執行することにコミットしており、特に新興のAI分野における透明性と安全性を高めるための法律も含まれる」と述べました。ただし、同代表は、潜在的または進行中の調査についてコメントや確認もできないと付け加えました。**2024年2月10日追記:**_このストーリーは、OpenAIがカリフォルニア州のAI法に準拠していると考えているとの同社の声明を、より上位に移動させる形で更新されました。見出しも、OpenAIが監視団体の告発に異議を唱えていることを明確にするために変更されています。また、GPT-5.3-Codexの安全報告書におけるOpenAIの声明は、同社が準備性フレームワークの曖昧な表現を明確にしようとしたものであることを補足しています。
OpenAIは、最新モデルのリリースによりカリフォルニア州の新しいAI安全法に違反したと監督機関の主張に異議を唱える
OpenAIは、最新のコーディングモデルのリリースにより、AI監視団体の告発によってカリフォルニア州の新しいAI安全法に違反した可能性があると指摘されています。
違反が認定されれば、同社は数百万ドルの罰金に直面する可能性があり、このケースは新法の規定を巡る先例となる最初の試験となるかもしれません。
おすすめ動画
OpenAIのスポークスパーソンは、監視団体の立場に異議を唱え、_Fortune_に対して「我々はSB 53を含む最先端の安全法令の遵守に自信を持っている」と述べました。
この論争は、OpenAIの最新コーディングモデルであるGPT-5.3-Codexに関するもので、先週リリースされました。このモデルは、OpenAIがAIを活用したコーディング分野でのリードを取り戻すための取り組みの一環であり、OpenAIが公開したベンチマークデータによると、従来のモデルや競合他社のAnthropicなどと比べてコーディングタスクの性能が著しく向上しています。しかし、同時に前例のないサイバーセキュリティ上の懸念も浮上しています。
CEOのサム・アルトマンは、このモデルがOpenAIの内部リスク分類システムである準備性フレームワークにおいて、「高」リスクカテゴリーに初めて該当したと述べました。これは、OpenAIがこのモデルを、特に自動化や大規模利用時に重大なサイバー被害を引き起こす可能性があると分類していることを意味します。
AI監視団体のマイダス・プロジェクトは、OpenAIが新たな高リスクモデルのリリースに伴い、カリフォルニア州法の下で法的に拘束力のある安全義務を守らなかったと主張しています。
2023年1月に施行されたカリフォルニア州のSB 53は、大手AI企業に対し、自社の安全フレームワークを公開し、それに従うことを義務付けています。これには、50人以上の死亡や10億ドル以上の財産被害をもたらすような壊滅的リスクを防ぐための具体的な対策を詳細に記載することも含まれます。また、これらの企業が遵守に関して誤解を招くような発言をすることも禁止しています。
OpenAIの安全フレームワークは、高サイバーリスクのモデルに対して、AIが誤動作したり、安全研究を妨害したり、真の能力を隠したりすることを防ぐための特別な安全策を要求しています。しかし、マイダス・プロジェクトは、リスク閾値の「高」に達したにもかかわらず、OpenAIが展開前に特定のミスマッチ防止策を実施していなかったと指摘しています。
OpenAIは、マイダス・プロジェクトの解釈は誤りだと述べる一方で、フレームワークの文言は「曖昧」であるとも認め、その意図を明確にするために、GPT-5.3-Codexとともに公開した安全報告書の中で説明を試みたとしています。その報告書では、「長距離の自律性」と呼ばれる長期間にわたり独立して動作できる能力と「連動して」高サイバーリスクが発生した場合にのみ、追加の安全策が必要だと述べています。OpenAIは、GPT-5.3-Codexにはこの自律性が欠如していると考えているため、安全策は不要と判断しています。
「GPT-5.3-Codexは、公開されたシステムカードに詳細に記載された完全なテストとガバナンスプロセスを経ており、代理評価や当社の安全諮問グループを含む内部専門家の判断によっても長距離自律性の能力は示されませんでした」とスポークスパーソンは述べました。ただし、同社はモデルの長距離自律性を評価する決定的な方法を持たず、より良い評価手法の開発に向けて代理指標となるテストに頼っているとも述べています。
一方、安全研究者の中には、OpenAIの解釈に異議を唱える者もいます。Encodeの副社長兼総務のナサン・カルビンはX上の投稿で、「彼らは計画を守らなかったことやリリース前に更新しなかったことを認めるよりも、基準が曖昧だったと言っているように見える。関連資料を読んだ限りでは…私には曖昧には見えません」と述べています。
マイダス・プロジェクトはまた、OpenAIがモデルに必要な自律性を欠いていることを証明できないと主張しています。なぜなら、同社の以前の、より低度のモデルはすでに自律的なタスク完遂のグローバルベンチマークを上回っているからです。グループは、ルールが不明確だったとしても、リリース前に明確にすべきだったと指摘しています。
マイダス・プロジェクトの創設者タイラー・ジョンストンは、「SB 53の基準は非常に低いため、違反の可能性は特に恥ずかしい。基本的には、自分の選んだ安全計画を採用し、それについて正直にコミュニケーションをとり、必要に応じて変更するだけでよいのに、それを守らない、または嘘をつくことは許されません」と述べました。
調査が開始され、告発が正しいと証明された場合、SB 53は違反に対して重大な罰則を科すことができ、違反の程度や期間に応じて数百万ドルに達する可能性があります。カリフォルニア州司法長官事務所の代表は、_Fortune_に対し、「我々は州の法律を執行することにコミットしており、特に新興のAI分野における透明性と安全性を高めるための法律も含まれる」と述べました。ただし、同代表は、潜在的または進行中の調査についてコメントや確認もできないと付け加えました。
2024年2月10日追記:_このストーリーは、OpenAIがカリフォルニア州のAI法に準拠していると考えているとの同社の声明を、より上位に移動させる形で更新されました。見出しも、OpenAIが監視団体の告発に異議を唱えていることを明確にするために変更されています。また、GPT-5.3-Codexの安全報告書におけるOpenAIの声明は、同社が準備性フレームワークの曖昧な表現を明確にしようとしたものであることを補足しています。