OpenAI спростовує заяву наглядача про порушення нового закону Каліфорнії про безпеку ШІ з випуском останньої моделі

OpenAI, за повідомленнями групи з контролю за штучним інтелектом, міг порушити новий закон Каліфорнії про безпеку ШІ з випуском своєї останньої моделі кодування.

Порушення потенційно може призвести до штрафів у мільйони доларів, а справа може стати прецедентом для перших випробувань положень нового закону.

Рекомендоване відео


Представник OpenAI спростував позицію контролюючої групи, повідомивши Fortune, що компанія «впевнена у відповідності своїх дій передовим законам про безпеку, зокрема SB 53».

Спір виникає навколо GPT-5.3-Codex, найновішої моделі кодування від OpenAI, яка була випущена минулого тижня. Ця модель є частиною зусиль OpenAI повернути лідерство у сфері штучного інтелекту, що підтримує автоматичне програмування, і, згідно з даними бенчмарків, які OpenAI оприлюднила, демонструє значно вищу продуктивність у задачах кодування порівняно з попередніми версіями моделей від OpenAI та конкурентів, таких як Anthropic. Однак, модель також викликала безпрецедентні питання щодо кібербезпеки.

Генеральний директор Сам Альтман заявив, що модель стала першою, яка потрапила до категорії «високий» ризик у рамках внутрішньої системи класифікації ризиків OpenAI — «Framework Preparedness». Це означає, що OpenAI фактично класифікує модель як здатну до потенційно значущих кіберзлочинів, особливо якщо вона автоматизована або використовується масштабно.

Група з контролю за ШІ, проект Midas, стверджує, що OpenAI не дотрималася своїх власних зобов’язань щодо безпеки, які тепер є юридично обов’язковими відповідно до закону Каліфорнії, з запуском нової високоризикової моделі.

Закон SB 53, який набрав чинності у січні, вимагає від великих компаній у сфері ШІ публікувати та дотримуватися власних рамкових програм безпеки, що описують, як вони запобігатимуть катастрофічним ризикам — визначеним як інциденти, що спричинили понад 50 смертей або понад 1 мільярд доларів збитків майну — у своїх моделях. Також він забороняє цим компаніям робити оманливі заяви щодо відповідності.

Рамкова програма безпеки OpenAI передбачає особливі заходи для моделей із високим ризиком кібербезпеки, спрямовані на запобігання зловмисному використанню ШІ, наприклад, обману, саботажу безпеки або приховування справжніх можливостей. Однак, група Midas стверджує, що, незважаючи на досягнення порогу «високого ризику» у сфері кібербезпеки, OpenAI не впровадила конкретних заходів щодо запобігання неправильній орієнтації моделі перед її запуском.

OpenAI заявляє, що тлумачення групи Midas щодо формулювань у Framework Preparedness є неправильним, хоча й визнає, що формулювання у цій системі є «неоднозначним». Компанія також зазначила, що вона прагнула прояснити наміри цього формулювання у заяві до звіту про безпеку, який був оприлюднений разом із GPT-5.3-Codex. У цьому звіті OpenAI зазначила, що додаткові заходи безпеки потрібні лише тоді, коли високий кіберризик виникає «у зв’язку з» довгостроковою автономією — здатністю працювати незалежно протягом тривалого часу. Оскільки компанія вважає, що GPT-5.3-Codex не має такої автономії, вони стверджують, що додаткові заходи не були необхідні.

«GPT-5.3-Codex пройшов повний процес тестування та управління, як описано у публічно оприлюдненій системній картці, і не демонструє можливостей довгострокової автономії на основі проксі-оцінок, підтверджених внутрішніми експертами, включно з нашою Радою з безпеки», — сказав представник. Водночас компанія зазначила, що не має остаточного способу оцінити довгострокову автономію моделі і покладається на тести, які, на їхню думку, можуть слугувати проксі для цієї метрики, поки не розроблять кращі методи оцінки.

Однак деякі дослідники безпеки оскаржують таку інтерпретацію OpenAI. Натан Калвін, віце-президент з державних справ і генеральний юрист Encode, написав у пості на X: «Замість того, щоб визнати, що вони не дотрималися свого плану або не оновили його перед випуском, здається, OpenAI каже, що критерії були неоднозначними. З прочитаних мною документів… це не здається мені неоднозначним.»

Група Midas також стверджує, що OpenAI не може переконливо довести, що модель позбавлена необхідної автономії для застосування додаткових заходів, оскільки їхня попередня менш просунута модель вже перевищила світові бенчмарки щодо автономного виконання завдань. Група наполягає, що навіть якщо правила були нечіткими, OpenAI слід було їх уточнити перед випуском моделі.

Засновник Midas, Тайлер Джонстон, назвав потенційне порушення «особливо прикрим, враховуючи низький рівень вимог закону SB 53: фактично просто прийняти добровільний план безпеки на свій вибір і чесно про нього повідомляти, змінюючи його за потреби, але не порушуючи або неправдиво його представляючи.»

Якщо розпочнуть розслідування і звинувачення підтвердяться, закон SB 53 передбачає значні штрафи за порушення, що можуть сягати мільйонів доларів залежно від серйозності та тривалості порушень. Представник офісу Генерального прокурора Каліфорнії повідомив Fortune, що департамент «зобов’язаний забезпечувати дотримання законів нашої держави, зокрема тих, що сприяють прозорості та безпеці у сфері нових технологій ШІ». Водночас вони додали, що не можуть коментувати або підтверджувати потенційні або поточні розслідування.

Оновлено, 10 лютого: Ця стаття оновлена, щоб підняти заяву OpenAI про відповідність закону Каліфорнії про ШІ вище у тексті. Заголовок також змінено, щоб чітко показати, що OpenAI оскаржує звинувачення групи контролю. Крім того, оновлено, щоб уточнити, що заява OpenAI у звіті про безпеку GPT-5.3-Codex була спрямована на прояснення неоднозначної мови у Framework Preparedness.

Переглянути оригінал
Ця сторінка може містити контент третіх осіб, який надається виключно в інформаційних цілях (не в якості запевнень/гарантій) і не повинен розглядатися як схвалення його поглядів компанією Gate, а також як фінансова або професійна консультація. Див. Застереження для отримання детальної інформації.
  • Нагородити
  • Прокоментувати
  • Репост
  • Поділіться
Прокоментувати
0/400
Немає коментарів
  • Закріпити