قد تكون شركة OpenAI قد انتهكت قانون السلامة الجديد للذكاء الاصطناعي في كاليفورنيا من خلال إصدار أحدث نماذج الترميز الخاصة بها، وفقًا لادعاءات مجموعة مراقبة الذكاء الاصطناعي.
قد يعرض هذا الانتهاك الشركة لغرامات تصل إلى ملايين الدولارات، وقد يصبح القضية اختبارًا أوليًا يحدد سابقة لتطبيق أحكام القانون الجديد.
فيديو موصى به
نفى متحدث باسم OpenAI موقف مجموعة المراقبة، وأخبر فورچون أن الشركة “واثقة من امتثالنا لقوانين السلامة الرائدة، بما في ذلك SB 53.”
تتركز الجدل حول GPT-5.3-Codex، أحدث نموذج ترميز أطلقته OpenAI الأسبوع الماضي. ويعد هذا النموذج جزءًا من جهود OpenAI لاستعادة ريادتها في مجال الترميز المدعوم بالذكاء الاصطناعي، والذي أظهر، وفقًا لبيانات المقاييس التي أصدرتها OpenAI، أداءً أعلى بشكل ملحوظ في مهام الترميز مقارنةً بالإصدارات السابقة من OpenAI ومنافسين مثل Anthropic. ومع ذلك، أثار النموذج أيضًا مخاوف غير مسبوقة بشأن الأمن السيبراني.
قال الرئيس التنفيذي سام ألتمان إن النموذج هو الأول الذي يصنف ضمن فئة “عالية” المخاطر من حيث الأمن السيبراني على إطار الاستعداد الخاص بالشركة، وهو نظام تصنيف داخلي للمخاطر تستخدمه OpenAI عند إصدار النماذج. وهذا يعني أن OpenAI تصنف النموذج على أنه قادر بما يكفي على الترميز ليتيح احتمالية التسبب في أضرار إلكترونية كبيرة، خاصة إذا تم تشغيله بشكل آلي أو على نطاق واسع.
تدعي مجموعة مراقبة الذكاء الاصطناعي، مشروع ميداس، أن OpenAI فشلت في الالتزام بالتزاماتها الأمنية الخاصة، والتي أصبحت ملزمة قانونيًا بموجب قانون كاليفورنيا، مع إطلاق النموذج الجديد عالي المخاطر.
دخل قانون SB 53 في كاليفورنيا حيز التنفيذ في يناير، ويُلزم الشركات الكبرى في مجال الذكاء الاصطناعي بنشر والالتزام بأطر السلامة الخاصة بها، التي توضح كيف ستمنع المخاطر الكارثية — المعروفة بأنها حوادث تتسبب في أكثر من 50 وفاة أو مليار دولار في أضرار مادية — من نماذجها. كما يمنع القانون هذه الشركات من إصدار بيانات مضللة بشأن الامتثال.
يتطلب إطار السلامة الخاص بـ OpenAI تدابير حماية خاصة للنماذج ذات المخاطر العالية من الأمن السيبراني، والتي تهدف إلى منع الذكاء الاصطناعي من التمرد أو القيام بأفعال خادعة، أو تخريب أبحاث السلامة، أو إخفاء قدراته الحقيقية. ومع ذلك، قال مشروع ميداس إن الشركة، على الرغم من تفعيلها لعتبة “مخاطر عالية” للأمن السيبراني، لم تبدِ على ما يبدو أنها نفذت التدابير الخاصة بتصحيح الاختلال قبل النشر.
تقول OpenAI إن تفسير مشروع ميداس لعبارة إطار الاستعداد الخاص بها غير صحيح، لكنها أضافت أن صياغة الإطار “غامضة”، وأنها سعت إلى توضيح نية الصياغة من خلال بيان في تقرير السلامة الذي أصدرته مع GPT-5.3-Codex. وأوضحت الشركة أن التدابير الإضافية ضرورية فقط عندما يحدث خطر سيبراني عالي “بالاقتران مع” الاستقلالية طويلة المدى — القدرة على العمل بشكل مستقل لفترات ممتدة. وبما أن الشركة تعتقد أن GPT-5.3-Codex يفتقر إلى هذه الاستقلالية، فهي تقول إن التدابير لم تكن مطلوبة.
قال متحدث باسم الشركة: “أكمل GPT-5.3-Codex عملية الاختبار والحوكمة الكاملة لدينا، كما هو موضح في بطاقة النظام التي تم إصدارها علنًا، ولم يُظهر قدرات استقلالية طويلة المدى استنادًا إلى تقييمات بديلة وبموافقة من خبرائنا الداخليين، بما في ذلك من مجموعة استشارات السلامة لدينا.” ومع ذلك، أضافت الشركة أنها تفتقر إلى طريقة حاسمة لتقييم استقلالية النموذج على المدى الطويل، وتعتمد على اختبارات تعتقد أنها يمكن أن تكون بدائل لهذه المقياس بينما تعمل على تطوير طرق تقييم أفضل.
لكن بعض باحثي السلامة جادلوا بأن تفسير OpenAI غير صحيح. قال ناثان كالڤن، نائب رئيس الشؤون الحكومية والمستشار العام في Encode، في منشور على X: “بدلاً من الاعتراف بعدم اتباع خطتهم أو تحديثها قبل الإصدار، يبدو أن OpenAI تقول إن المعايير كانت غامضة. من قراءة الوثائق ذات الصلة… لا أعتقد أنها غامضة.”
كما تدعي مجموعة ميداس أن OpenAI لا يمكنها إثبات بشكل قاطع أن النموذج يفتقر إلى الاستقلالية المطلوبة للتدابير الإضافية، حيث أن النموذج السابق والأقل تطورًا من الشركة تصدر بالفعل معايير عالمية لإنجاز المهام بشكل مستقل. وتؤكد المجموعة أنه حتى لو كانت القواعد غير واضحة، كان ينبغي على OpenAI توضيحها قبل إصدار النموذج.
وصف تيلر جونستون، مؤسس مشروع ميداس، الانتهاك المحتمل بأنه “محرج بشكل خاص بالنظر إلى أن الحد الأدنى الذي يحدده قانون SB 53 منخفض جدًا: ببساطة اعتماد خطة سلامة طوعية تختارها والتواصل بصراحة عنها، وتغييرها حسب الحاجة، دون انتهاك أو كذب بشأنها.”
إذا تم فتح تحقيق وتأكدت الادعاءات، فإن قانون SB 53 يتيح فرض غرامات كبيرة على المخالفات، قد تصل إلى ملايين الدولارات اعتمادًا على مدى وخطورة عدم الامتثال. وأفاد ممثل عن مكتب المدعي العام في كاليفورنيا لـ فورچون أن القسم “ملتزم بإنفاذ قوانين ولايتنا، بما في ذلك تلك التي تم سنها لزيادة الشفافية والسلامة في مجال الذكاء الاصطناعي الناشئ.” لكنهم أضافوا أن القسم غير قادر على التعليق على التحقيقات المحتملة أو الجارية، سواء بالتأكيد أو النفي.
تم التحديث، 10 فبراير:تم تحديث هذه القصة لنقل بيان OpenAI الذي يعتقد أنه يتوافق مع قانون كاليفورنيا للذكاء الاصطناعي إلى مكانة أعلى في النص. كما تم تغيير العنوان ليكون واضحًا أن OpenAI يناقض ادعاءات مجموعة المراقبة. بالإضافة إلى ذلك، تم تحديث القصة لتوضيح أن بيان OpenAI في تقرير السلامة الخاص بـ GPT-5.3-Codex كان يهدف إلى توضيح ما اعتبرته الشركة عبارة غامضة في إطار الاستعداد الخاص بها.
شاهد النسخة الأصلية
قد تحتوي هذه الصفحة على محتوى من جهات خارجية، يتم تقديمه لأغراض إعلامية فقط (وليس كإقرارات/ضمانات)، ولا ينبغي اعتباره موافقة على آرائه من قبل Gate، ولا بمثابة نصيحة مالية أو مهنية. انظر إلى إخلاء المسؤولية للحصول على التفاصيل.
OpenAI ترفض ادعاء هيئة الرقابة بأنها انتهكت قانون السلامة الجديد للذكاء الاصطناعي في كاليفورنيا مع إصدار النموذج الأحدث
قد تكون شركة OpenAI قد انتهكت قانون السلامة الجديد للذكاء الاصطناعي في كاليفورنيا من خلال إصدار أحدث نماذج الترميز الخاصة بها، وفقًا لادعاءات مجموعة مراقبة الذكاء الاصطناعي.
قد يعرض هذا الانتهاك الشركة لغرامات تصل إلى ملايين الدولارات، وقد يصبح القضية اختبارًا أوليًا يحدد سابقة لتطبيق أحكام القانون الجديد.
فيديو موصى به
نفى متحدث باسم OpenAI موقف مجموعة المراقبة، وأخبر فورچون أن الشركة “واثقة من امتثالنا لقوانين السلامة الرائدة، بما في ذلك SB 53.”
تتركز الجدل حول GPT-5.3-Codex، أحدث نموذج ترميز أطلقته OpenAI الأسبوع الماضي. ويعد هذا النموذج جزءًا من جهود OpenAI لاستعادة ريادتها في مجال الترميز المدعوم بالذكاء الاصطناعي، والذي أظهر، وفقًا لبيانات المقاييس التي أصدرتها OpenAI، أداءً أعلى بشكل ملحوظ في مهام الترميز مقارنةً بالإصدارات السابقة من OpenAI ومنافسين مثل Anthropic. ومع ذلك، أثار النموذج أيضًا مخاوف غير مسبوقة بشأن الأمن السيبراني.
قال الرئيس التنفيذي سام ألتمان إن النموذج هو الأول الذي يصنف ضمن فئة “عالية” المخاطر من حيث الأمن السيبراني على إطار الاستعداد الخاص بالشركة، وهو نظام تصنيف داخلي للمخاطر تستخدمه OpenAI عند إصدار النماذج. وهذا يعني أن OpenAI تصنف النموذج على أنه قادر بما يكفي على الترميز ليتيح احتمالية التسبب في أضرار إلكترونية كبيرة، خاصة إذا تم تشغيله بشكل آلي أو على نطاق واسع.
تدعي مجموعة مراقبة الذكاء الاصطناعي، مشروع ميداس، أن OpenAI فشلت في الالتزام بالتزاماتها الأمنية الخاصة، والتي أصبحت ملزمة قانونيًا بموجب قانون كاليفورنيا، مع إطلاق النموذج الجديد عالي المخاطر.
دخل قانون SB 53 في كاليفورنيا حيز التنفيذ في يناير، ويُلزم الشركات الكبرى في مجال الذكاء الاصطناعي بنشر والالتزام بأطر السلامة الخاصة بها، التي توضح كيف ستمنع المخاطر الكارثية — المعروفة بأنها حوادث تتسبب في أكثر من 50 وفاة أو مليار دولار في أضرار مادية — من نماذجها. كما يمنع القانون هذه الشركات من إصدار بيانات مضللة بشأن الامتثال.
يتطلب إطار السلامة الخاص بـ OpenAI تدابير حماية خاصة للنماذج ذات المخاطر العالية من الأمن السيبراني، والتي تهدف إلى منع الذكاء الاصطناعي من التمرد أو القيام بأفعال خادعة، أو تخريب أبحاث السلامة، أو إخفاء قدراته الحقيقية. ومع ذلك، قال مشروع ميداس إن الشركة، على الرغم من تفعيلها لعتبة “مخاطر عالية” للأمن السيبراني، لم تبدِ على ما يبدو أنها نفذت التدابير الخاصة بتصحيح الاختلال قبل النشر.
تقول OpenAI إن تفسير مشروع ميداس لعبارة إطار الاستعداد الخاص بها غير صحيح، لكنها أضافت أن صياغة الإطار “غامضة”، وأنها سعت إلى توضيح نية الصياغة من خلال بيان في تقرير السلامة الذي أصدرته مع GPT-5.3-Codex. وأوضحت الشركة أن التدابير الإضافية ضرورية فقط عندما يحدث خطر سيبراني عالي “بالاقتران مع” الاستقلالية طويلة المدى — القدرة على العمل بشكل مستقل لفترات ممتدة. وبما أن الشركة تعتقد أن GPT-5.3-Codex يفتقر إلى هذه الاستقلالية، فهي تقول إن التدابير لم تكن مطلوبة.
قال متحدث باسم الشركة: “أكمل GPT-5.3-Codex عملية الاختبار والحوكمة الكاملة لدينا، كما هو موضح في بطاقة النظام التي تم إصدارها علنًا، ولم يُظهر قدرات استقلالية طويلة المدى استنادًا إلى تقييمات بديلة وبموافقة من خبرائنا الداخليين، بما في ذلك من مجموعة استشارات السلامة لدينا.” ومع ذلك، أضافت الشركة أنها تفتقر إلى طريقة حاسمة لتقييم استقلالية النموذج على المدى الطويل، وتعتمد على اختبارات تعتقد أنها يمكن أن تكون بدائل لهذه المقياس بينما تعمل على تطوير طرق تقييم أفضل.
لكن بعض باحثي السلامة جادلوا بأن تفسير OpenAI غير صحيح. قال ناثان كالڤن، نائب رئيس الشؤون الحكومية والمستشار العام في Encode، في منشور على X: “بدلاً من الاعتراف بعدم اتباع خطتهم أو تحديثها قبل الإصدار، يبدو أن OpenAI تقول إن المعايير كانت غامضة. من قراءة الوثائق ذات الصلة… لا أعتقد أنها غامضة.”
كما تدعي مجموعة ميداس أن OpenAI لا يمكنها إثبات بشكل قاطع أن النموذج يفتقر إلى الاستقلالية المطلوبة للتدابير الإضافية، حيث أن النموذج السابق والأقل تطورًا من الشركة تصدر بالفعل معايير عالمية لإنجاز المهام بشكل مستقل. وتؤكد المجموعة أنه حتى لو كانت القواعد غير واضحة، كان ينبغي على OpenAI توضيحها قبل إصدار النموذج.
وصف تيلر جونستون، مؤسس مشروع ميداس، الانتهاك المحتمل بأنه “محرج بشكل خاص بالنظر إلى أن الحد الأدنى الذي يحدده قانون SB 53 منخفض جدًا: ببساطة اعتماد خطة سلامة طوعية تختارها والتواصل بصراحة عنها، وتغييرها حسب الحاجة، دون انتهاك أو كذب بشأنها.”
إذا تم فتح تحقيق وتأكدت الادعاءات، فإن قانون SB 53 يتيح فرض غرامات كبيرة على المخالفات، قد تصل إلى ملايين الدولارات اعتمادًا على مدى وخطورة عدم الامتثال. وأفاد ممثل عن مكتب المدعي العام في كاليفورنيا لـ فورچون أن القسم “ملتزم بإنفاذ قوانين ولايتنا، بما في ذلك تلك التي تم سنها لزيادة الشفافية والسلامة في مجال الذكاء الاصطناعي الناشئ.” لكنهم أضافوا أن القسم غير قادر على التعليق على التحقيقات المحتملة أو الجارية، سواء بالتأكيد أو النفي.
تم التحديث، 10 فبراير: تم تحديث هذه القصة لنقل بيان OpenAI الذي يعتقد أنه يتوافق مع قانون كاليفورنيا للذكاء الاصطناعي إلى مكانة أعلى في النص. كما تم تغيير العنوان ليكون واضحًا أن OpenAI يناقض ادعاءات مجموعة المراقبة. بالإضافة إلى ذلك، تم تحديث القصة لتوضيح أن بيان OpenAI في تقرير السلامة الخاص بـ GPT-5.3-Codex كان يهدف إلى توضيح ما اعتبرته الشركة عبارة غامضة في إطار الاستعداد الخاص بها.