OpenAI bác bỏ cáo buộc của cơ quan giám sát về việc vi phạm luật an toàn AI mới của California với việc phát hành mô hình mới nhất

OpenAI có thể đã vi phạm luật an toàn AI mới của California với việc phát hành mô hình mã hóa mới nhất của mình, theo cáo buộc từ một nhóm giám sát AI.

Vi phạm này có thể khiến công ty phải đối mặt với hàng triệu đô la tiền phạt, và vụ việc có thể trở thành tiền lệ đầu tiên thử nghiệm các quy định của luật mới này.

Video đề xuất


Phát ngôn viên của OpenAI đã phản đối quan điểm của nhóm giám sát, nói với Fortune rằng công ty “tự tin vào việc tuân thủ các luật an toàn tiên phong, bao gồm SB 53.”

Vụ tranh cãi tập trung vào GPT-5.3-Codex, mô hình mã hóa mới nhất của OpenAI, được phát hành tuần trước. Mô hình này là một phần trong nỗ lực của OpenAI để lấy lại vị thế dẫn đầu trong lĩnh vực mã hóa dựa trên AI, và theo dữ liệu benchmark mà OpenAI công bố, cho thấy hiệu suất cao rõ rệt trong các nhiệm vụ mã hóa so với các phiên bản mô hình trước đó của chính OpenAI cũng như các đối thủ như Anthropic. Tuy nhiên, mô hình này cũng đã gây ra những lo ngại chưa từng có về an ninh mạng.

Giám đốc điều hành Sam Altman cho biết mô hình này là mô hình đầu tiên đạt mức “cao” về rủi ro an ninh mạng trong Khung chuẩn bị của công ty, một hệ thống phân loại rủi ro nội bộ mà OpenAI sử dụng để đánh giá các lần ra mắt mô hình. Điều này có nghĩa là OpenAI đang xếp mô hình vào loại có khả năng gây ra tổn hại lớn về an ninh mạng, đặc biệt nếu tự động hóa hoặc sử dụng quy mô lớn.

Nhóm giám sát AI, dự án Midas, tuyên bố rằng OpenAI đã không tuân thủ các cam kết về an toàn của chính mình—hiện đã trở thành ràng buộc pháp lý theo luật California—kể từ khi ra mắt mô hình rủi ro cao mới.

SB 53 của California, có hiệu lực từ tháng 1, yêu cầu các công ty AI lớn công bố và tuân thủ các khung an toàn của riêng họ, mô tả cách họ sẽ ngăn chặn các rủi ro thảm khốc—được định nghĩa là các sự cố gây ra hơn 50 ca tử vong hoặc thiệt hại tài sản trên 1 tỷ đô la—từ các mô hình của họ. Nó cũng cấm các công ty này đưa ra các tuyên bố gây hiểu lầm về việc tuân thủ.

Khung an toàn của OpenAI yêu cầu các biện pháp bảo vệ đặc biệt cho các mô hình có nguy cơ an ninh mạng cao nhằm ngăn chặn AI trở nên mất kiểm soát và thực hiện các hành động như lừa dối, phá hoại nghiên cứu an toàn hoặc che giấu khả năng thực sự của nó. Tuy nhiên, nhóm Midas cho biết rằng mặc dù mô hình đã kích hoạt ngưỡng rủi ro cao về an ninh mạng, OpenAI dường như chưa triển khai các biện pháp phòng ngừa sai lệch cụ thể trước khi ra mắt.

OpenAI cho biết cách hiểu của nhóm Midas về ngôn ngữ trong Khung chuẩn bị của họ là sai, mặc dù họ cũng nói rằng ngôn ngữ trong khung này “mơ hồ” và họ đã cố gắng làm rõ ý định của ngôn ngữ đó trong báo cáo an toàn mà công ty phát hành cùng GPT-5.3-Codex. Trong báo cáo an toàn này, OpenAI nói rằng các biện pháp bảo vệ bổ sung chỉ cần thiết khi rủi ro mạng cao xảy ra “kết hợp với” khả năng tự chủ dài hạn—khả năng hoạt động độc lập trong thời gian dài. Vì công ty cho rằng GPT-5.3-Codex thiếu khả năng tự chủ này, họ cho rằng các biện pháp bảo vệ không bắt buộc.

“GPT-5.3-Codex đã hoàn thành toàn bộ quá trình kiểm tra và quản trị của chúng tôi, như đã trình bày trong thẻ hệ thống công khai, và không thể hiện khả năng tự chủ dài hạn dựa trên các đánh giá proxy và được xác nhận bởi các đánh giá của các chuyên gia nội bộ, bao gồm cả Nhóm Tư vấn An toàn của chúng tôi,” phát ngôn viên nói. Tuy nhiên, công ty cũng cho biết họ không có cách đánh giá rõ ràng về khả năng tự chủ dài hạn của mô hình và dựa vào các bài kiểm tra mà họ tin có thể đóng vai trò như các proxy cho chỉ số này trong khi họ phát triển các phương pháp đánh giá tốt hơn.

Tuy nhiên, một số nhà nghiên cứu về an toàn đã phản đối cách hiểu của OpenAI. Nathan Calvin, phó chủ tịch về các vấn đề nhà nước và cố vấn pháp lý tại Encode, nói trên X: “Thay vì thừa nhận rằng họ không tuân theo kế hoạch hoặc đã không cập nhật nó trước khi ra mắt, có vẻ như OpenAI đang nói rằng tiêu chí đó mơ hồ. Từ việc đọc các tài liệu liên quan… tôi không thấy nó mơ hồ.”

Nhóm Midas cũng tuyên bố rằng OpenAI không thể chứng minh rõ ràng rằng mô hình thiếu khả năng tự chủ cần thiết cho các biện pháp bổ sung, vì mô hình trước đó của công ty, ít tiên tiến hơn, đã đạt các chuẩn mực toàn cầu về hoàn thành nhiệm vụ tự động. Nhóm lập luận rằng ngay cả khi các quy tắc không rõ ràng, OpenAI cũng nên làm rõ chúng trước khi phát hành mô hình.

Tyler Johnston, sáng lập viên của Midas Project, gọi vi phạm tiềm năng này là “đặc biệt xấu hổ khi xem xét mức độ thấp mà SB 53 đặt ra: về cơ bản chỉ cần thực hiện một kế hoạch an toàn tự nguyện của bạn và trung thực trong việc giao tiếp về nó, thay đổi nó khi cần thiết, nhưng không vi phạm hoặc nói dối về nó.”

Nếu một cuộc điều tra được mở và các cáo buộc là chính xác, SB 53 cho phép xử phạt đáng kể các vi phạm, có thể lên đến hàng triệu đô la tùy theo mức độ nghiêm trọng và thời gian không tuân thủ. Một đại diện của Văn phòng Tổng chưởng lý California cho biết với Fortune rằng bộ phận này “cam kết thực thi các luật của bang chúng tôi, bao gồm cả những luật được ban hành để tăng cường minh bạch và an toàn trong lĩnh vực AI mới nổi.” Tuy nhiên, họ nói rằng bộ phận này không thể bình luận, thậm chí xác nhận hoặc phủ nhận, các cuộc điều tra tiềm năng hoặc đang diễn ra.

Cập nhật ngày 10 tháng 2: Bài viết này đã được cập nhật để đưa tuyên bố của OpenAI rằng họ tin rằng mình tuân thủ luật AI của California lên cao hơn trong bài. Tiêu đề cũng đã được thay đổi để làm rõ rằng OpenAI đang phản đối cáo buộc từ nhóm giám sát. Ngoài ra, bài viết đã được cập nhật để làm rõ rằng tuyên bố của OpenAI trong báo cáo an toàn GPT-5.3-Codex nhằm làm rõ nội dung mơ hồ trong Khung chuẩn bị của họ.

Xem bản gốc
Trang này có thể chứa nội dung của bên thứ ba, được cung cấp chỉ nhằm mục đích thông tin (không phải là tuyên bố/bảo đảm) và không được coi là sự chứng thực cho quan điểm của Gate hoặc là lời khuyên về tài chính hoặc chuyên môn. Xem Tuyên bố từ chối trách nhiệm để biết chi tiết.
  • Phần thưởng
  • Bình luận
  • Đăng lại
  • Retweed
Bình luận
0/400
Không có bình luận
  • Ghim