Chào mừng đến với Eye on AI, cùng phóng viên AI Sharon Goldman. Trong số này: Mặt tối của OpenClaw…Quỹ siêu PAC 20 triệu đô của Anthropic chống lại OpenAI…OpenAI phát hành mô hình đầu tiên được thiết kế để xuất ra siêu nhanh…Anthropic sẽ bù đắp chi phí tăng giá điện từ các trung tâm dữ liệu AI của mình…Isomorphic Labs cho biết đã mở khóa một chân trời sinh học mới vượt ra ngoài AlphaFold.
Video đề xuất
OpenClaw đã dành vài tuần qua để thể hiện rõ mức độ liều lĩnh của các tác nhân AI — và thu hút một lượng người theo dõi trung thành trong quá trình đó.
Tác nhân trí tuệ nhân tạo tự hành miễn phí, mã nguồn mở, do Peter Steinberger phát triển và ban đầu gọi là ClawdBot, lấy các chatbot mà chúng ta quen thuộc và yêu thích — như ChatGPT và Claude — và trang bị cho chúng các công cụ cùng khả năng tự quyết để tương tác trực tiếp với máy tính của bạn và các thiết bị khác trên internet. Nghĩa là gửi email, đọc tin nhắn của bạn, đặt vé xem concert, đặt bàn nhà hàng, và còn nhiều hơn nữa — có lẽ trong khi bạn thư giãn và ăn kẹo.
Vấn đề khi trao quyền tuyệt đối cho OpenClaw để làm những điều thú vị? Không có gì ngạc nhiên, đó là việc nó cũng có nhiều cơ hội để làm những điều không nên, bao gồm rò rỉ dữ liệu, thực thi lệnh không mong muốn, hoặc bị tấn công âm thầm, qua phần mềm độc hại hoặc các cuộc tấn công “tiêm prompt” (prompt injection). (Nơi ai đó chèn hướng dẫn độc hại vào dữ liệu mà tác nhân AI có thể sử dụng.)
Sự phấn khích về OpenClaw, theo hai chuyên gia an ninh mạng tôi đã nói chuyện trong tuần này, là vì nó không có giới hạn, về cơ bản cho phép người dùng tùy chỉnh theo ý muốn mà không bị hạn chế.
“Quy tắc duy nhất là không có quy tắc,” nói Ben Seri, đồng sáng lập và CTO của Zafran Security, chuyên cung cấp quản lý rủi ro đe dọa cho các doanh nghiệp. “Đó là phần của trò chơi.” Nhưng trò chơi đó có thể biến thành cơn ác mộng an ninh, vì quy tắc và giới hạn là trung tâm để giữ hacker và rò rỉ dữ liệu ở xa.
Các mối lo ngại an ninh truyền thống
Các mối lo ngại về an ninh khá phổ biến, theo Colin Shea-Blymyer, nghiên cứu viên tại Trung tâm An ninh và Công nghệ Mới nổi của Georgetown (CSET), nơi ông làm việc về Dự án CyberAI. Cấu hình sai quyền truy cập — ai hoặc cái gì được phép làm gì — có thể khiến con người vô tình cấp cho OpenClaw nhiều quyền hơn họ nhận thức, và kẻ tấn công có thể lợi dụng.
Ví dụ, trong OpenClaw, phần lớn rủi ro đến từ những gì các nhà phát triển gọi là “kỹ năng,” tức là các ứng dụng hoặc plugin mà tác nhân AI có thể sử dụng để thực hiện các hành động — như truy cập tệp, duyệt web, hoặc chạy lệnh. Khác với một ứng dụng bình thường, OpenClaw tự quyết định khi nào sử dụng các kỹ năng này và cách kết hợp chúng, nghĩa là một sai sót nhỏ về quyền có thể nhanh chóng trở thành vấn đề nghiêm trọng hơn nhiều.
“Hãy tưởng tượng sử dụng nó để truy cập trang đặt chỗ của một nhà hàng và nó cũng có quyền truy cập vào lịch của bạn với tất cả thông tin cá nhân,” ông nói. “Hoặc giả sử đó là phần mềm độc hại và nó tìm thấy trang sai và cài đặt virus?”
OpenClaw có các trang an ninh trong tài liệu hướng dẫn và đang cố gắng giữ người dùng cảnh giác và nhận thức, Shea-Blymyer nói. Nhưng các vấn đề an ninh vẫn là những vấn đề kỹ thuật phức tạp mà phần lớn người dùng trung bình khó có thể hiểu hết. Và trong khi các nhà phát triển của OpenClaw cố gắng sửa các lỗ hổng, họ không thể dễ dàng giải quyết vấn đề cốt lõi là tác nhân có thể hành động độc lập — điều làm hệ thống trở nên hấp dẫn ngay từ đầu.
“Đó là sự căng thẳng cơ bản trong các hệ thống loại này,” ông nói. “Càng cấp quyền truy cập nhiều, chúng càng thú vị và hấp dẫn — nhưng cũng càng nguy hiểm.”
Các doanh nghiệp sẽ chậm chân hơn trong việc áp dụng
Seri của Zafran Security thừa nhận rằng ít có khả năng dập tắt sự tò mò của người dùng đối với hệ thống như OpenClaw, mặc dù ông nhấn mạnh rằng các công ty doanh nghiệp sẽ chậm hơn nhiều trong việc chấp nhận một hệ thống không kiểm soát được và không an toàn như vậy. Đối với người dùng trung bình, ông nói, họ nên thử nghiệm như thể đang làm trong phòng thí nghiệm hóa học với một chất cực kỳ dễ nổ.
Shea-Blymyer chỉ ra rằng việc OpenClaw xuất hiện đầu tiên ở cấp độ sở thích là điều tích cực. “Chúng ta sẽ học hỏi rất nhiều về hệ sinh thái này trước khi ai đó thử nghiệm ở quy mô doanh nghiệp,” ông nói. “Các hệ thống AI có thể thất bại theo những cách mà chúng ta còn chưa thể tưởng tượng,” ông giải thích. “[OpenClaw] có thể cung cấp cho chúng ta nhiều thông tin về lý do tại sao các mô hình LLM hành xử như vậy và về các mối lo ngại an ninh mới.”
Nhưng trong khi OpenClaw có thể là một thử nghiệm dành cho sở thích ngày nay, các chuyên gia an ninh xem đó như một dự báo về các hệ thống tự hành mà các doanh nghiệp cuối cùng sẽ cảm thấy áp lực phải triển khai.
Hiện tại, trừ khi ai đó muốn trở thành đối tượng nghiên cứu an ninh, người dùng trung bình có thể nên tránh xa OpenClaw, Shea-Blymyer nói. Nếu không, đừng ngạc nhiên nếu trợ lý AI cá nhân của bạn lạc vào những vùng đất không thân thiện.
Giám đốc điều hành của Capgemini cảnh báo. Bạn có thể đang nghĩ sai về AI — bởi Kamal Ahmed
Chủ tịch AI đoạt giải Nobel của Google dự đoán một “phục hưng” sắp tới — sau một cuộc “rung chuyển” 10 hoặc 15 năm — bởi Nick Lichtenberg
X-odus: Một nửa đội ngũ sáng lập xAI của Elon Musk đã rời khỏi công ty AI của ông, có thể làm phức tạp kế hoạch IPO SpaceX đình đám của ông — bởi Beatrice Nolan
OpenAI phản đối tuyên bố của cơ quan giám sát rằng họ vi phạm luật an toàn AI mới của California với phiên bản mô hình mới nhất — bởi Beatrice Nolan
AI TRONG TIN TỨC
Quỹ siêu PAC 20 triệu đô của Anthropic chống lại OpenAI. Theo New York Times, Anthropic đã cam kết 20 triệu đô để thành lập một quỹ siêu PAC nhằm ủng hộ các ứng viên ủng hộ an toàn và quy định chặt chẽ hơn về AI, tạo ra một cuộc đối đầu trực tiếp trước kỳ bầu cử giữa kỳ. Khoản tài trợ sẽ chảy qua tổ chức phi lợi nhuận tối tối Public First Action và các PAC liên kết, nhằm đối lập với Leading the Future, một siêu PAC chủ yếu do chủ tịch và đồng sáng lập OpenAI Greg Brockman cùng quỹ đầu tư Andreessen Horowitz hậu thuẫn. Mặc dù Anthropic không đề cập trực tiếp đến OpenAI, nhưng cảnh báo rằng “nguồn lực khổng lồ” đang được huy động để chống lại các nỗ lực an toàn AI, làm rõ sự chia rẽ ngày càng sâu sắc trong ngành AI về mức độ kiểm soát các mô hình mạnh mẽ — và cho thấy cuộc chiến về quản trị AI hiện không chỉ diễn ra trong phòng thí nghiệm và phòng họp, mà còn trên các lá phiếu.
Mustafa Suleyman lên kế hoạch cho ‘tự lực’ AI khi Microsoft nới lỏng quan hệ với OpenAI. Tờ Financial Times đưa tin rằng Microsoft đang thúc đẩy hướng tới điều mà giám đốc AI Mustafa Suleyman gọi là “tự lực thực sự” trong trí tuệ nhân tạo, đẩy nhanh nỗ lực xây dựng các mô hình nền tảng của riêng mình và giảm phụ thuộc lâu dài vào OpenAI, dù vẫn là một trong những nhà đầu tư lớn nhất của startup này. Trong một cuộc phỏng vấn, Suleyman cho biết sự chuyển đổi này theo sau việc tái cấu trúc mối quan hệ của Microsoft với OpenAI vào tháng 10 năm ngoái, giữ quyền truy cập vào các mô hình tiên tiến nhất của OpenAI đến năm 2032 nhưng cũng cho phép nhà sáng lập ChatGPT tự do tìm kiếm nhà đầu tư và đối tác mới — có thể biến nó thành đối thủ cạnh tranh. Microsoft hiện đang đầu tư mạnh vào tính toán quy mô gigawatt, các pipeline dữ liệu, và các nhóm nghiên cứu AI hàng đầu, dự kiến ra mắt các mô hình nội bộ của riêng mình trong năm nay, nhằm tự động hóa công việc văn phòng và chiếm lĩnh thị trường doanh nghiệp nhiều hơn với “AGI chuyên nghiệp” mà Suleyman gọi.
OpenAI phát hành mô hình đầu tiên được thiết kế để xuất ra siêu nhanh. OpenAI đã ra mắt bản xem trước nghiên cứu của GPT-5.3-Codex-Spark, sản phẩm đầu tiên của hợp tác với Cerebras, sử dụng phần cứng AI wafer-scale của nhà sản xuất chip này để cung cấp mã hóa thời gian thực, độ trễ cực thấp trong Codex. Mô hình nhỏ hơn, phiên bản tinh giản của GPT-5.3-Codex, tối ưu cho tốc độ hơn khả năng tối đa, tạo phản hồi nhanh gấp 15 lần để các nhà phát triển có thể chỉnh sửa mục tiêu, định hình lại logic, và lặp lại tương tác mà không cần chờ đợi các quá trình dài. Ban đầu chỉ dành cho người dùng ChatGPT Pro và một số đối tác API nhỏ, việc ra mắt này cho thấy OpenAI ngày càng chú trọng đến tốc độ tương tác khi các tác nhân AI đảm nhận các nhiệm vụ tự hành, dài hạn — trong đó mã hóa thời gian thực là một thử nghiệm sớm về những gì inference nhanh hơn có thể mở khóa.
Anthropic sẽ bù đắp chi phí tăng giá điện từ các trung tâm dữ liệu AI của mình. Sau thông báo tương tự của OpenAI tháng trước, hôm qua Anthropic thông báo rằng khi mở rộng các trung tâm dữ liệu AI tại Mỹ, họ sẽ chịu trách nhiệm về bất kỳ sự tăng giá điện nào có thể được chuyển sang người tiêu dùng, cam kết trả tất cả chi phí kết nối lưới và nâng cấp, đưa vào hoạt động các nguồn năng lượng mới để đáp ứng nhu cầu, làm việc với các nhà cung cấp dịch vụ và chuyên gia để ước tính và bù đắp các tác động về giá; họ cũng dự định đầu tư vào công nghệ giảm tiêu thụ năng lượng và tối ưu hóa lưới điện, hỗ trợ cộng đồng địa phương quanh các cơ sở của mình, và vận động các chính sách rộng hơn để thúc đẩy nhanh hơn và giảm chi phí phát triển hạ tầng năng lượng, lập luận rằng xây dựng hạ tầng AI không nên gây gánh nặng cho người tiêu dùng hàng ngày.
Isomorphic Labs cho biết đã mở khóa một chân trời sinh học mới vượt ra ngoài AlphaFold. Công ty phát hiện thuốc AI liên kết với Alphabet và DeepMind, Isomorphic Labs, cho biết hệ thống thiết kế thuốc mới của họ, gọi là Isomorphic Labs Drug Design Engine, là bước tiến lớn trong y học tính toán bằng cách kết hợp nhiều mô hình AI thành một hệ thống thống nhất có thể dự đoán cách các phân tử sinh học tương tác với độ chính xác chưa từng có. Một bài đăng trên blog cho biết hệ thống này hơn gấp đôi hiệu suất trước đó trên các tiêu chuẩn chính và vượt xa các phương pháp dựa trên vật lý truyền thống trong các nhiệm vụ như dự đoán cấu trúc protein–ligand và ước lượng độ liên kết — các khả năng mà công ty cho rằng có thể thúc đẩy mạnh mẽ quá trình thiết kế và tối ưu hóa các ứng viên thuốc mới. Hệ thống dựa trên thành công của AlphaFold 3, một mô hình AI tiên tiến ra mắt năm 2024, dự đoán cấu trúc 3D và tương tác của tất cả các phân tử của sự sống, bao gồm protein, DNA và RNA. Nhưng công ty nói rằng họ còn tiến xa hơn bằng cách xác định các túi liên kết mới, tổng quát hóa các cấu trúc ngoài dữ liệu huấn luyện, và tích hợp các dự đoán này vào một nền tảng mở rộng nhằm thu hẹp khoảng cách giữa sinh học cấu trúc và nghiên cứu thuốc thực tế, có thể định hình lại cách các nghiên cứu dược phẩm đối mặt với các mục tiêu khó và mở rộng sang các sinh học phức tạp.
SỐ LIỆU VỀ AI TRÊN EYE ON AI
77%
Đó là tỷ lệ các chuyên gia an ninh báo cáo ít nhất một mức độ thoải mái khi cho phép các hệ thống AI tự hành hoạt động mà không có sự giám sát của con người, mặc dù họ vẫn còn thận trọng, theo một khảo sát mới với 1.200 chuyên gia an ninh của công ty phần mềm an ninh và doanh nghiệp toàn cầu Ivanti. Ngoài ra, báo cáo còn cho thấy rằng việc áp dụng AI tự hành là ưu tiên của 87% các nhóm an ninh.
Tuy nhiên, Giám đốc an ninh của Ivanti, Daniel Spicer, nói rằng các nhóm an ninh không nên quá thoải mái với ý tưởng triển khai AI tự hành. Mặc dù các nhà phòng thủ lạc quan về tiềm năng của AI trong an ninh mạng, các phát hiện cũng cho thấy các công ty ngày càng tụt lại trong việc chuẩn bị để chống lại các mối đe dọa đa dạng.
“Đây là thứ tôi gọi là ‘Chênh lệch Sẵn sàng An ninh mạng,’” ông viết trong một bài blog, “một khoảng cách ngày càng lớn theo từng năm trong khả năng của tổ chức để bảo vệ dữ liệu, con người và mạng lưới của họ trước bối cảnh công nghệ ngày càng phát triển.”
LỊCH TRÌNH AI
10-11 tháng 2: Hội nghị Hành động AI, New Delhi, Ấn Độ.
24-26 tháng 2: Hiệp hội Quốc tế về AI An toàn & Đạo đức (IASEAI), UNESCO, Paris, Pháp.
2-5 tháng 3: Hội nghị Thế giới Di động, Barcelona, Tây Ban Nha.
16-19 tháng 3: Nvidia GTC, San Jose, California.
6-9 tháng 4: HumanX, San Francisco.
**Tham gia chúng tôi tại Hội nghị Đổi mới Nơi làm việc của Fortune 19-20 tháng 5, 2026, tại Atlanta. Thời đại mới của đổi mới nơi làm việc đã bắt đầu — và quy tắc cũ đang được viết lại. Trong sự kiện độc quyền, năng lượng cao này, các nhà lãnh đạo sáng tạo nhất thế giới sẽ tụ họp để khám phá cách AI, nhân loại và chiến lược hội tụ để định hình lại, một lần nữa, tương lai của công việc. Đăng ký ngay.
Xem bản gốc
Trang này có thể chứa nội dung của bên thứ ba, được cung cấp chỉ nhằm mục đích thông tin (không phải là tuyên bố/bảo đảm) và không được coi là sự chứng thực cho quan điểm của Gate hoặc là lời khuyên về tài chính hoặc chuyên môn. Xem Tuyên bố từ chối trách nhiệm để biết chi tiết.
OpenClaw là tên tuổi xấu trong các tác nhân AI. Dưới đây là lý do tại sao các chuyên gia an ninh cảnh báo bạn nên cảnh giác
Chào mừng đến với Eye on AI, cùng phóng viên AI Sharon Goldman. Trong số này: Mặt tối của OpenClaw…Quỹ siêu PAC 20 triệu đô của Anthropic chống lại OpenAI…OpenAI phát hành mô hình đầu tiên được thiết kế để xuất ra siêu nhanh…Anthropic sẽ bù đắp chi phí tăng giá điện từ các trung tâm dữ liệu AI của mình…Isomorphic Labs cho biết đã mở khóa một chân trời sinh học mới vượt ra ngoài AlphaFold.
Video đề xuất
OpenClaw đã dành vài tuần qua để thể hiện rõ mức độ liều lĩnh của các tác nhân AI — và thu hút một lượng người theo dõi trung thành trong quá trình đó.
Tác nhân trí tuệ nhân tạo tự hành miễn phí, mã nguồn mở, do Peter Steinberger phát triển và ban đầu gọi là ClawdBot, lấy các chatbot mà chúng ta quen thuộc và yêu thích — như ChatGPT và Claude — và trang bị cho chúng các công cụ cùng khả năng tự quyết để tương tác trực tiếp với máy tính của bạn và các thiết bị khác trên internet. Nghĩa là gửi email, đọc tin nhắn của bạn, đặt vé xem concert, đặt bàn nhà hàng, và còn nhiều hơn nữa — có lẽ trong khi bạn thư giãn và ăn kẹo.
Vấn đề khi trao quyền tuyệt đối cho OpenClaw để làm những điều thú vị? Không có gì ngạc nhiên, đó là việc nó cũng có nhiều cơ hội để làm những điều không nên, bao gồm rò rỉ dữ liệu, thực thi lệnh không mong muốn, hoặc bị tấn công âm thầm, qua phần mềm độc hại hoặc các cuộc tấn công “tiêm prompt” (prompt injection). (Nơi ai đó chèn hướng dẫn độc hại vào dữ liệu mà tác nhân AI có thể sử dụng.)
Sự phấn khích về OpenClaw, theo hai chuyên gia an ninh mạng tôi đã nói chuyện trong tuần này, là vì nó không có giới hạn, về cơ bản cho phép người dùng tùy chỉnh theo ý muốn mà không bị hạn chế.
“Quy tắc duy nhất là không có quy tắc,” nói Ben Seri, đồng sáng lập và CTO của Zafran Security, chuyên cung cấp quản lý rủi ro đe dọa cho các doanh nghiệp. “Đó là phần của trò chơi.” Nhưng trò chơi đó có thể biến thành cơn ác mộng an ninh, vì quy tắc và giới hạn là trung tâm để giữ hacker và rò rỉ dữ liệu ở xa.
Các mối lo ngại an ninh truyền thống
Các mối lo ngại về an ninh khá phổ biến, theo Colin Shea-Blymyer, nghiên cứu viên tại Trung tâm An ninh và Công nghệ Mới nổi của Georgetown (CSET), nơi ông làm việc về Dự án CyberAI. Cấu hình sai quyền truy cập — ai hoặc cái gì được phép làm gì — có thể khiến con người vô tình cấp cho OpenClaw nhiều quyền hơn họ nhận thức, và kẻ tấn công có thể lợi dụng.
Ví dụ, trong OpenClaw, phần lớn rủi ro đến từ những gì các nhà phát triển gọi là “kỹ năng,” tức là các ứng dụng hoặc plugin mà tác nhân AI có thể sử dụng để thực hiện các hành động — như truy cập tệp, duyệt web, hoặc chạy lệnh. Khác với một ứng dụng bình thường, OpenClaw tự quyết định khi nào sử dụng các kỹ năng này và cách kết hợp chúng, nghĩa là một sai sót nhỏ về quyền có thể nhanh chóng trở thành vấn đề nghiêm trọng hơn nhiều.
“Hãy tưởng tượng sử dụng nó để truy cập trang đặt chỗ của một nhà hàng và nó cũng có quyền truy cập vào lịch của bạn với tất cả thông tin cá nhân,” ông nói. “Hoặc giả sử đó là phần mềm độc hại và nó tìm thấy trang sai và cài đặt virus?”
OpenClaw có các trang an ninh trong tài liệu hướng dẫn và đang cố gắng giữ người dùng cảnh giác và nhận thức, Shea-Blymyer nói. Nhưng các vấn đề an ninh vẫn là những vấn đề kỹ thuật phức tạp mà phần lớn người dùng trung bình khó có thể hiểu hết. Và trong khi các nhà phát triển của OpenClaw cố gắng sửa các lỗ hổng, họ không thể dễ dàng giải quyết vấn đề cốt lõi là tác nhân có thể hành động độc lập — điều làm hệ thống trở nên hấp dẫn ngay từ đầu.
“Đó là sự căng thẳng cơ bản trong các hệ thống loại này,” ông nói. “Càng cấp quyền truy cập nhiều, chúng càng thú vị và hấp dẫn — nhưng cũng càng nguy hiểm.”
Các doanh nghiệp sẽ chậm chân hơn trong việc áp dụng
Seri của Zafran Security thừa nhận rằng ít có khả năng dập tắt sự tò mò của người dùng đối với hệ thống như OpenClaw, mặc dù ông nhấn mạnh rằng các công ty doanh nghiệp sẽ chậm hơn nhiều trong việc chấp nhận một hệ thống không kiểm soát được và không an toàn như vậy. Đối với người dùng trung bình, ông nói, họ nên thử nghiệm như thể đang làm trong phòng thí nghiệm hóa học với một chất cực kỳ dễ nổ.
Shea-Blymyer chỉ ra rằng việc OpenClaw xuất hiện đầu tiên ở cấp độ sở thích là điều tích cực. “Chúng ta sẽ học hỏi rất nhiều về hệ sinh thái này trước khi ai đó thử nghiệm ở quy mô doanh nghiệp,” ông nói. “Các hệ thống AI có thể thất bại theo những cách mà chúng ta còn chưa thể tưởng tượng,” ông giải thích. “[OpenClaw] có thể cung cấp cho chúng ta nhiều thông tin về lý do tại sao các mô hình LLM hành xử như vậy và về các mối lo ngại an ninh mới.”
Nhưng trong khi OpenClaw có thể là một thử nghiệm dành cho sở thích ngày nay, các chuyên gia an ninh xem đó như một dự báo về các hệ thống tự hành mà các doanh nghiệp cuối cùng sẽ cảm thấy áp lực phải triển khai.
Hiện tại, trừ khi ai đó muốn trở thành đối tượng nghiên cứu an ninh, người dùng trung bình có thể nên tránh xa OpenClaw, Shea-Blymyer nói. Nếu không, đừng ngạc nhiên nếu trợ lý AI cá nhân của bạn lạc vào những vùng đất không thân thiện.
Với điều đó, đây là thêm các tin tức về AI.
Sharon Goldman
sharon.goldman@fortune.com
@sharongoldman
FORTUNE VỀ AI
Giám đốc điều hành của Capgemini cảnh báo. Bạn có thể đang nghĩ sai về AI — bởi Kamal Ahmed
Chủ tịch AI đoạt giải Nobel của Google dự đoán một “phục hưng” sắp tới — sau một cuộc “rung chuyển” 10 hoặc 15 năm — bởi Nick Lichtenberg
X-odus: Một nửa đội ngũ sáng lập xAI của Elon Musk đã rời khỏi công ty AI của ông, có thể làm phức tạp kế hoạch IPO SpaceX đình đám của ông — bởi Beatrice Nolan
OpenAI phản đối tuyên bố của cơ quan giám sát rằng họ vi phạm luật an toàn AI mới của California với phiên bản mô hình mới nhất — bởi Beatrice Nolan
AI TRONG TIN TỨC
Quỹ siêu PAC 20 triệu đô của Anthropic chống lại OpenAI. Theo New York Times, Anthropic đã cam kết 20 triệu đô để thành lập một quỹ siêu PAC nhằm ủng hộ các ứng viên ủng hộ an toàn và quy định chặt chẽ hơn về AI, tạo ra một cuộc đối đầu trực tiếp trước kỳ bầu cử giữa kỳ. Khoản tài trợ sẽ chảy qua tổ chức phi lợi nhuận tối tối Public First Action và các PAC liên kết, nhằm đối lập với Leading the Future, một siêu PAC chủ yếu do chủ tịch và đồng sáng lập OpenAI Greg Brockman cùng quỹ đầu tư Andreessen Horowitz hậu thuẫn. Mặc dù Anthropic không đề cập trực tiếp đến OpenAI, nhưng cảnh báo rằng “nguồn lực khổng lồ” đang được huy động để chống lại các nỗ lực an toàn AI, làm rõ sự chia rẽ ngày càng sâu sắc trong ngành AI về mức độ kiểm soát các mô hình mạnh mẽ — và cho thấy cuộc chiến về quản trị AI hiện không chỉ diễn ra trong phòng thí nghiệm và phòng họp, mà còn trên các lá phiếu.
Mustafa Suleyman lên kế hoạch cho ‘tự lực’ AI khi Microsoft nới lỏng quan hệ với OpenAI. Tờ Financial Times đưa tin rằng Microsoft đang thúc đẩy hướng tới điều mà giám đốc AI Mustafa Suleyman gọi là “tự lực thực sự” trong trí tuệ nhân tạo, đẩy nhanh nỗ lực xây dựng các mô hình nền tảng của riêng mình và giảm phụ thuộc lâu dài vào OpenAI, dù vẫn là một trong những nhà đầu tư lớn nhất của startup này. Trong một cuộc phỏng vấn, Suleyman cho biết sự chuyển đổi này theo sau việc tái cấu trúc mối quan hệ của Microsoft với OpenAI vào tháng 10 năm ngoái, giữ quyền truy cập vào các mô hình tiên tiến nhất của OpenAI đến năm 2032 nhưng cũng cho phép nhà sáng lập ChatGPT tự do tìm kiếm nhà đầu tư và đối tác mới — có thể biến nó thành đối thủ cạnh tranh. Microsoft hiện đang đầu tư mạnh vào tính toán quy mô gigawatt, các pipeline dữ liệu, và các nhóm nghiên cứu AI hàng đầu, dự kiến ra mắt các mô hình nội bộ của riêng mình trong năm nay, nhằm tự động hóa công việc văn phòng và chiếm lĩnh thị trường doanh nghiệp nhiều hơn với “AGI chuyên nghiệp” mà Suleyman gọi.
OpenAI phát hành mô hình đầu tiên được thiết kế để xuất ra siêu nhanh. OpenAI đã ra mắt bản xem trước nghiên cứu của GPT-5.3-Codex-Spark, sản phẩm đầu tiên của hợp tác với Cerebras, sử dụng phần cứng AI wafer-scale của nhà sản xuất chip này để cung cấp mã hóa thời gian thực, độ trễ cực thấp trong Codex. Mô hình nhỏ hơn, phiên bản tinh giản của GPT-5.3-Codex, tối ưu cho tốc độ hơn khả năng tối đa, tạo phản hồi nhanh gấp 15 lần để các nhà phát triển có thể chỉnh sửa mục tiêu, định hình lại logic, và lặp lại tương tác mà không cần chờ đợi các quá trình dài. Ban đầu chỉ dành cho người dùng ChatGPT Pro và một số đối tác API nhỏ, việc ra mắt này cho thấy OpenAI ngày càng chú trọng đến tốc độ tương tác khi các tác nhân AI đảm nhận các nhiệm vụ tự hành, dài hạn — trong đó mã hóa thời gian thực là một thử nghiệm sớm về những gì inference nhanh hơn có thể mở khóa.
Anthropic sẽ bù đắp chi phí tăng giá điện từ các trung tâm dữ liệu AI của mình. Sau thông báo tương tự của OpenAI tháng trước, hôm qua Anthropic thông báo rằng khi mở rộng các trung tâm dữ liệu AI tại Mỹ, họ sẽ chịu trách nhiệm về bất kỳ sự tăng giá điện nào có thể được chuyển sang người tiêu dùng, cam kết trả tất cả chi phí kết nối lưới và nâng cấp, đưa vào hoạt động các nguồn năng lượng mới để đáp ứng nhu cầu, làm việc với các nhà cung cấp dịch vụ và chuyên gia để ước tính và bù đắp các tác động về giá; họ cũng dự định đầu tư vào công nghệ giảm tiêu thụ năng lượng và tối ưu hóa lưới điện, hỗ trợ cộng đồng địa phương quanh các cơ sở của mình, và vận động các chính sách rộng hơn để thúc đẩy nhanh hơn và giảm chi phí phát triển hạ tầng năng lượng, lập luận rằng xây dựng hạ tầng AI không nên gây gánh nặng cho người tiêu dùng hàng ngày.
Isomorphic Labs cho biết đã mở khóa một chân trời sinh học mới vượt ra ngoài AlphaFold. Công ty phát hiện thuốc AI liên kết với Alphabet và DeepMind, Isomorphic Labs, cho biết hệ thống thiết kế thuốc mới của họ, gọi là Isomorphic Labs Drug Design Engine, là bước tiến lớn trong y học tính toán bằng cách kết hợp nhiều mô hình AI thành một hệ thống thống nhất có thể dự đoán cách các phân tử sinh học tương tác với độ chính xác chưa từng có. Một bài đăng trên blog cho biết hệ thống này hơn gấp đôi hiệu suất trước đó trên các tiêu chuẩn chính và vượt xa các phương pháp dựa trên vật lý truyền thống trong các nhiệm vụ như dự đoán cấu trúc protein–ligand và ước lượng độ liên kết — các khả năng mà công ty cho rằng có thể thúc đẩy mạnh mẽ quá trình thiết kế và tối ưu hóa các ứng viên thuốc mới. Hệ thống dựa trên thành công của AlphaFold 3, một mô hình AI tiên tiến ra mắt năm 2024, dự đoán cấu trúc 3D và tương tác của tất cả các phân tử của sự sống, bao gồm protein, DNA và RNA. Nhưng công ty nói rằng họ còn tiến xa hơn bằng cách xác định các túi liên kết mới, tổng quát hóa các cấu trúc ngoài dữ liệu huấn luyện, và tích hợp các dự đoán này vào một nền tảng mở rộng nhằm thu hẹp khoảng cách giữa sinh học cấu trúc và nghiên cứu thuốc thực tế, có thể định hình lại cách các nghiên cứu dược phẩm đối mặt với các mục tiêu khó và mở rộng sang các sinh học phức tạp.
SỐ LIỆU VỀ AI TRÊN EYE ON AI
77%
Đó là tỷ lệ các chuyên gia an ninh báo cáo ít nhất một mức độ thoải mái khi cho phép các hệ thống AI tự hành hoạt động mà không có sự giám sát của con người, mặc dù họ vẫn còn thận trọng, theo một khảo sát mới với 1.200 chuyên gia an ninh của công ty phần mềm an ninh và doanh nghiệp toàn cầu Ivanti. Ngoài ra, báo cáo còn cho thấy rằng việc áp dụng AI tự hành là ưu tiên của 87% các nhóm an ninh.
Tuy nhiên, Giám đốc an ninh của Ivanti, Daniel Spicer, nói rằng các nhóm an ninh không nên quá thoải mái với ý tưởng triển khai AI tự hành. Mặc dù các nhà phòng thủ lạc quan về tiềm năng của AI trong an ninh mạng, các phát hiện cũng cho thấy các công ty ngày càng tụt lại trong việc chuẩn bị để chống lại các mối đe dọa đa dạng.
“Đây là thứ tôi gọi là ‘Chênh lệch Sẵn sàng An ninh mạng,’” ông viết trong một bài blog, “một khoảng cách ngày càng lớn theo từng năm trong khả năng của tổ chức để bảo vệ dữ liệu, con người và mạng lưới của họ trước bối cảnh công nghệ ngày càng phát triển.”
LỊCH TRÌNH AI
10-11 tháng 2: Hội nghị Hành động AI, New Delhi, Ấn Độ.
24-26 tháng 2: Hiệp hội Quốc tế về AI An toàn & Đạo đức (IASEAI), UNESCO, Paris, Pháp.
2-5 tháng 3: Hội nghị Thế giới Di động, Barcelona, Tây Ban Nha.
16-19 tháng 3: Nvidia GTC, San Jose, California.
6-9 tháng 4: HumanX, San Francisco.
**Tham gia chúng tôi tại Hội nghị Đổi mới Nơi làm việc của Fortune 19-20 tháng 5, 2026, tại Atlanta. Thời đại mới của đổi mới nơi làm việc đã bắt đầu — và quy tắc cũ đang được viết lại. Trong sự kiện độc quyền, năng lượng cao này, các nhà lãnh đạo sáng tạo nhất thế giới sẽ tụ họp để khám phá cách AI, nhân loại và chiến lược hội tụ để định hình lại, một lần nữa, tương lai của công việc. Đăng ký ngay.