Xin chào và chào mừng đến với Eye on AI…Trong số này: ‘Tận thế SaaS’ không còn nữa…OpenAI và Anthropic đều ra mắt các mô hình mới với tác động lớn đến an ninh mạng… chính phủ Mỹ xem xét hạn chế tự nguyện việc xây dựng trung tâm dữ liệu để tránh người tiêu dùng bị sốc về hóa đơn điện… tại sao hai chỉ số AI thường được trích dẫn lại có thể đều sai… và tại sao ngày càng khó phân biệt liệu các mô hình AI có an toàn hay không.
Các nhà đầu tư cần phải nghỉ ngơi. Đó là kết luận của tôi sau khi theo dõi những biến động của thị trường trong tuần qua. Cụ thể, các nhà đầu tư nên tìm cho mình một nhà phân tâm học theo phong cách Kleinian. Bởi vì họ dường như mắc kẹt trong trạng thái mà một nhà phân tâm Kleinian có thể gọi là “tư thế hoang tưởng-ly dị”—dao động mạnh giữa việc xem tác động của AI đối với các nhà cung cấp phần mềm đã thành lập là “tất cả đều tốt” hoặc “tất cả đều xấu.” Tuần trước, họ đã chuyển sang “tất cả đều xấu” và theo ước tính của Goldman Sachs, đã xóa đi khoảng 2 nghìn tỷ đô la khỏi giá trị thị trường của các cổ phiếu. Cho đến nay trong tuần này, mọi thứ lại tốt trở lại, và chỉ số S&P 500 đã phục hồi gần mức cao kỷ lục (mặc dù các nhà cung cấp phần mềm SaaS chỉ ghi nhận mức tăng nhẹ và cuộc biến động có thể đã lấy đi ít nhất một CEO: CEO Workday, Carl Eschenbach, thông báo sẽ từ chức để nhường chỗ cho đồng sáng lập kiêm cựu CEO của công ty, Aneel Bhusri). Nhưng có rất nhiều sắc thái mà thị trường đang bỏ lỡ. Các nhà đầu tư thích một câu chuyện đơn giản. Cuộc đua AI doanh nghiệp hiện nay giống như một tiểu thuyết Nga hơn.
Trong suốt hai năm qua, thị trường tài chính đã từng trừng phạt cổ phiếu của các công ty SaaS vì có vẻ như các mô hình nền tảng AI có thể cho phép các doanh nghiệp “vibe code” phần mềm tùy chỉnh, có thể thay thế Salesforce hoặc Workday hoặc ServiceNow. Tuần trước, thủ phạm dường như là nhận thức rằng các đại lý AI ngày càng có khả năng từ các nhà như Anthropic, đã bắt đầu triển khai các plugin cho sản phẩm Claude Cowork của họ nhắm vào các ngành dọc cụ thể, có thể gây hại cho các công ty SaaS theo hai cách: thứ nhất, các đề xuất đại lý mới của các công ty nền tảng cạnh tranh trực tiếp với phần mềm đại lý AI của các ông lớn SaaS. Thứ hai, bằng cách tự động hóa quy trình làm việc, các đại lý này có thể giảm nhu cầu về nhân viên, nghĩa là các công ty SaaS không thể tính phí cho nhiều giấy phép người dùng nữa. Vì vậy, các nhà cung cấp SaaS bị thiệt hại hai chiều.
Tuy nhiên, chưa rõ điều này có đúng hay không—hoặc ít nhất, chỉ đúng một phần.
Video đề xuất
Các đại lý AI không ăn phần mềm SaaS, họ đang sử dụng nó
Trước tiên, rất khó xảy ra, ngay cả khi các đại lý mã hóa AI ngày càng có khả năng, hầu hết các công ty Fortune 500 sẽ muốn tự tạo phần mềm quản lý khách hàng hoặc nhân sự hoặc chuỗi cung ứng tùy chỉnh của riêng mình. Chúng ta đơn giản không dự kiến sẽ thấy một sự tháo gỡ hoàn toàn 50 năm phát triển phần mềm doanh nghiệp trước đó. Nếu bạn là nhà sản xuất widget, bạn thực sự không muốn kinh doanh tạo, vận hành và duy trì phần mềm ERP, ngay cả khi quá trình đó phần lớn đã được tự động hóa bởi các kỹ sư phần mềm AI. Nó vẫn quá tốn kém và quá phân tâm cho nguồn nhân lực kỹ thuật hạn chế—dù lượng lao động con người cần thiết đã giảm đi nhiều so với năm năm trước. Vì vậy, nhu cầu về các sản phẩm cốt lõi truyền thống của các công ty SaaS có khả năng sẽ vẫn duy trì.
Về các mối quan tâm mới về các đại lý AI từ các nhà sản xuất mô hình nền tảng, có nhiều hơn để các nhà đầu tư SaaS lo lắng. Có thể Anthropic, OpenAI và Google sẽ chiếm lĩnh tầng cao nhất của hệ thống AI đại lý—xây dựng các nền tảng điều phối đại lý cho phép các công ty lớn xây dựng, vận hành và quản lý các quy trình phức tạp. Đó là mục tiêu của OpenAI với việc ra mắt tuần trước nền tảng AI đại lý mới dành cho doanh nghiệp gọi là Frontier.
Các nhà giữ vị trí SaaS nói rằng họ biết rõ cách vận hành tầng điều phối này vì họ đã quen xử lý các vấn đề về an ninh mạng, kiểm soát truy cập và quản trị, và vì trong nhiều trường hợp, họ đã sở hữu dữ liệu mà các đại lý AI cần truy cập để thực hiện công việc của mình. Thêm vào đó, vì hầu hết quy trình công việc doanh nghiệp sẽ không hoàn toàn tự động, các công ty SaaS nghĩ rằng họ có lợi thế hơn trong việc phục vụ lực lượng lao động lai, nơi con người và các đại lý AI làm việc cùng nhau trên cùng một phần mềm và trong cùng các quy trình. Họ có thể đúng. Nhưng họ sẽ phải chứng minh điều đó trước khi OpenAI hoặc Anthropic thể hiện được khả năng làm tốt hoặc tốt hơn.
Các công ty mô hình nền tảng cũng có cơ hội chiếm lĩnh thị trường các đại lý AI. Claude Cowork của Anthropic là một mối đe dọa nghiêm trọng đối với Salesforce và Microsoft, nhưng không phải là một mối đe dọa toàn diện. Nó không thay thế hoàn toàn nhu cầu về phần mềm SaaS, vì Claude sử dụng phần mềm này như một công cụ để hoàn thành nhiệm vụ. Nhưng chắc chắn điều đó có nghĩa là một số khách hàng có thể thích dùng Claude Cowork thay vì nâng cấp lên Agentforce của Salesforce hoặc Microsoft 365 Copilot. Điều này có thể hạn chế tiềm năng tăng trưởng của các công ty SaaS, như bài viết của Wall Street Journal của Dan Gallagher lập luận.
Các nhà cung cấp SaaS đang điều chỉnh mô hình kinh doanh của họ
Về mối đe dọa đối với mô hình kinh doanh truyền thống của các công ty SaaS là bán giấy phép người dùng, các công ty SaaS nhận thức rõ rủi ro này và đang cố gắng giải quyết. Salesforce đã tiên phong trong việc phát triển “Thỏa thuận Giấy phép Doanh nghiệp Đại lý” (AELA) mà về cơ bản cung cấp cho khách hàng mức giá cố định, không giới hạn truy cập vào Agentforce. ServiceNow đang chuyển sang các mô hình định giá dựa trên tiêu thụ và giá trị cho một số dịch vụ đại lý AI của họ. Microsoft cũng đã giới thiệu một phần của mô hình định giá dựa trên tiêu thụ bên cạnh mô hình theo người dùng mỗi tháng cho sản phẩm Microsoft Copilot Studio, cho phép khách hàng xây dựng các đại lý Microsoft Copilot. Vì vậy, mối đe dọa này không phải là toàn diện, nhưng có thể làm giảm tốc độ tăng trưởng và biên lợi nhuận của các công ty SaaS. Bởi vì một trong những bí mật không sạch của ngành SaaS là nó không khác gì việc vận hành một phòng tập gym: khách hàng tốt nhất thường là những người trả tiền cho các thành viên (hoặc trong trường hợp này, giấy phép người dùng) mà họ không sử dụng. Với các mô hình kinh doanh mới này, các nhà cung cấp công nghệ có thể sẽ không còn hưởng lợi nhiều từ khoản chi tiêu không cần thiết này nữa.
Vì vậy, SaaS chưa chết. Nhưng cũng chưa chắc đã sẵn sàng để phát triển mạnh. Tương lai của các công ty trong lĩnh vực này có thể sẽ phân hóa. Như một số nhà phân tích Phố Wall đã chỉ ra tuần trước, sẽ có người thắng và người thua. Nhưng vẫn còn quá sớm để khẳng định ai đúng ai sai. Hiện tại, các nhà đầu tư cần chấp nhận sự mơ hồ này.
Với đó, đây là thêm các tin tức về AI.
Jeremy Kahn
jeremy.kahn@fortune.com
@jeremyakahn
FORTUNE VỀ AI
OpenAI vs. Anthropic: Cuộc chiến quảng cáo Super Bowl báo hiệu chúng ta đã bước vào kỷ nguyên tranh luận “chửi thề” của AI—và cuộc đua sở hữu các đại lý AI ngày càng nóng hơn—bởi Sharon Goldman
Mô hình mới nhất của Anthropic xuất sắc trong việc tìm ra các lỗ hổng bảo mật—nhưng cũng đặt ra các rủi ro an ninh mạng mới—bởi Beatrice Nolan
Mô hình mới của OpenAI tiến xa trong khả năng mã hóa—nhưng cũng mang lại các rủi ro an ninh chưa từng có—bởi Sharon Goldman
Thị phần ChatGPT đang giảm dần khi Google và các đối thủ rút ngắn khoảng cách, theo dữ liệu theo dõi ứng dụng—bởi Beatrice Nolan
AI TRONG TIN TỨC
AI dẫn đến “tăng cường” công việc cho từng nhân viên, nghiên cứu phát hiện. Một nghiên cứu kéo dài tám tháng của hai nhà nghiên cứu tại Đại học California Berkeley phát hiện rằng thay vì giảm tải công việc, các công cụ AI tạo sinh lại làm tăng cường công việc. Các hệ thống AI rút ngắn thời gian hoàn thành nhiệm vụ nhưng cũng mở rộng khối lượng và tốc độ sản xuất dự kiến. Nhân viên được trang bị AI không chỉ hoàn thành công việc nhanh hơn mà còn đảm nhận phạm vi nhiệm vụ rộng hơn, làm việc nhiều giờ hơn và chịu áp lực nhận thức tăng lên từ việc quản lý, xem xét và chỉnh sửa các kết quả của AI, làm mờ ranh giới giữa công việc và thời gian nghỉ ngơi. Nghiên cứu thách thức giả định phổ biến rằng AI sẽ giúp cuộc sống dễ dàng hơn cho các nhân viên tri thức, mà thay vào đó cho thấy tự động hóa thường dẫn đến yêu cầu cao hơn và kiệt sức. Đọc thêm từ Harvard Business Review tại đây.
Tổng thống Mỹ xem xét hạn chế tự nguyện mở rộng trung tâm dữ liệu. Chính quyền Trump đang xem xét một thỏa thuận tự nguyện với các công ty công nghệ lớn nhằm đảm bảo các trung tâm dữ liệu không làm tăng hóa đơn điện bán lẻ, gây áp lực lên nguồn nước và làm suy yếu độ tin cậy của lưới điện. Đề xuất này, vẫn đang được hoàn thiện, sẽ yêu cầu các công ty cam kết gánh chịu chi phí hạ tầng và hạn chế tác động năng lượng địa phương của các cơ sở của họ, và theo các phản ánh ở một số khu vực, các trung tâm dữ liệu đã dẫn đến tăng đột biến hóa đơn điện cho người tiêu dùng. Đọc thêm từ Politico tại đây.
Amazon dự kiến xây dựng thị trường nội dung để các nhà xuất bản bán cho các công ty AI. Đó là theo The Information, trích dẫn các nguồn quen thuộc với kế hoạch này. Động thái này diễn ra trong bối cảnh các nhà xuất bản và các công ty AI xung đột về cách cấp phép và thanh toán nội dung, trong bối cảnh các nhà xuất bản lo ngại rằng các công cụ tìm kiếm và trò chuyện dựa trên AI đang làm giảm lượng truy cập và doanh thu quảng cáo. Cloudflare và Akamai đã ra mắt một nỗ lực thị trường tương tự vào năm ngoái. Microsoft đã thử nghiệm phiên bản riêng của mình và tuần trước đã mở rộng ra quy mô lớn hơn. Nhưng cho đến nay, chưa rõ có bao nhiêu công ty AI đang mua hàng trên các thị trường này và với khối lượng ra sao. Một số nhà xuất bản lớn đã ký các thỏa thuận tùy chỉnh trị giá hàng triệu đô la mỗi năm với OpenAI, Anthropic và các đối tác khác.
Goldman Sachs hợp tác với Anthropic để thực hiện công tác kế toán, tuân thủ. Ngân hàng đầu tư này đang làm việc với Anthropic để triển khai các đại lý tự động dựa trên mô hình Claude của họ nhằm tự động hóa các công việc quy mô lớn, dựa trên quy tắc như kế toán giao dịch và onboarding khách hàng, sau sáu tháng phát triển chung, CNBC đưa tin. Ngân hàng cho biết mục tiêu là nâng cao hiệu quả, tăng tốc các quy trình trong khi giữ số lượng nhân viên thấp khi khối lượng công việc tăng lên, chứ không phải cắt giảm việc làm trong ngắn hạn. Các giám đốc điều hành cho biết họ ngạc nhiên về khả năng xử lý các nhiệm vụ phức tạp về kế toán và tuân thủ của Claude, củng cố quan điểm rằng AI có thể vượt ra ngoài mã hóa để đảm nhận các chức năng cốt lõi của bộ phận hậu cần.
Nghiên cứu AI ĐÁNH GIÁ
Phá bỏ hai chỉ số AI phổ biến vì lý do trái ngược nhau. Tiếp nối chủ đề trong bài luận chính của bản tin hôm nay, tôi muốn làm rõ hai bài đăng gần đây trong bản tin. Mỗi bài đều phản bác một chỉ số phổ biến thu hút nhiều sự chú ý trong các cuộc thảo luận về AI và tác động của nó đối với doanh nghiệp. Một đã được dùng để làm nổi bật tiến bộ của AI; bài còn lại để khẳng định AI không có nhiều ảnh hưởng.
Đầu tiên, trong bản tin AI The Transformer, Nathan Witkin phân tích chỉ số METR, một chuẩn mực nổi tiếng nhằm chứng minh khả năng của AI “nhân đôi mỗi 7 tháng.” Witkin lập luận rằng các mức chuẩn của con người bị hỏng nặng: các nhiệm vụ được hoàn thành bởi một mẫu nhỏ, không đại diện của các kỹ sư được tuyển từ mạng lưới của METR, trả lương theo giờ (khuyến khích làm chậm tiến độ), và thường làm ngoài chuyên môn của họ. Dữ liệu của METR cho thấy các kỹ sư của họ hoàn thành nhiệm vụ nhanh hơn các chuẩn từ 5 đến 18 lần. Trong khi đó, trên các nhiệm vụ “lộn xộn” nhất, không mô hình nào vượt quá tỷ lệ thành công 30%.
Tiếp theo, Azeem Azhar trong bản tin Exponential View của mình phân tích bài “nghiên cứu MIT” nổi tiếng, cho thấy “95% tổ chức không thấy lợi nhuận từ AI.” Azhar nhận thấy nghiên cứu nền tảng dựa trên chỉ 52 cuộc phỏng vấn, thiếu khoảng tin cậy, sử dụng các mẫu số không nhất quán, và chính MIT mô tả là “công trình sơ bộ, chưa qua bình duyệt.” Khi tính lại dựa trên một mẫu hợp lý hơn (các công ty đã thực hiện thử nghiệm), tỷ lệ thành công có thể gần 25%.
Những phê bình này cho thấy cả hai quan điểm lạc quan về công nghệ (AI đang tiến bộ nhanh chóng) và hoài nghi (AI không hoạt động trong thực tế) đều có thể sai. Sự thật, như thường lệ, phức tạp hơn nhiều và nằm ở đâu đó giữa hai cực này.
LỊCH TRÌNH AI
10-11 tháng 2: Hội nghị Hành động AI, New Delhi, Ấn Độ.
24-26 tháng 2: Hiệp hội Quốc tế về AI An toàn & Đạo đức (IASEAI), UNESCO, Paris, Pháp.
2-5 tháng 3: Hội nghị Thế giới Di động, Barcelona, Tây Ban Nha.
12-18 tháng 3: South by Southwest, Austin, Texas.
16-19 tháng 3: Nvidia GTC, San Jose, California.
THỨ ĂN TRÍ NÃO
Các mô hình ngày càng “đánh lừa” chúng ta. Thuật ngữ “sandbagging” trong nghiên cứu An toàn AI mô tả hiện tượng một mô hình AI cố ý tỏ ra kém khả năng hơn hoặc “đồng bộ” với các giá trị của con người trong các bài đánh giá an toàn nhằm đánh lừa người đánh giá. Một số mô hình tiên tiến mới ra mắt gần đây dường như làm điều này với mức độ đáng báo động.
Claude Opus 4.6 của Anthropic, ra mắt tuần trước, “có lý do rõ ràng về việc nó có đang được huấn luyện hay thử nghiệm,” công ty báo cáo. Apollo Research, đánh giá GPT-5.3-Codex của OpenAI cũng ra mắt tuần trước, phát hiện rằng mô hình “đôi khi làm giảm khả năng trong các nhiệm vụ hỏi đáp” và “có lý do rõ ràng” để làm vậy nhằm đảm bảo vượt qua các bài đánh giá. Chính OpenAI cũng thừa nhận rằng “kết quả đánh giá có thể bị ảnh hưởng bởi nhận thức tình huống tăng lên” và cảnh báo rằng “lĩnh vực chưa chuẩn bị cho các mô hình nhận thức về đánh giá và huấn luyện có ý thức về lý luận mập mờ.” Báo cáo an toàn Gemini 3 Pro của Google, công bố tháng 12, ghi nhận các bản ghi trong đó mô hình thể hiện “nhận thức rõ ràng về việc nó là một LLM trong môi trường tổng hợp” và thậm chí suy đoán về khả năng cố ý hoạt động kém hơn trong các bài kiểm tra có thể mang lại lợi thế chiến lược. Tóm lại: các bài kiểm tra chúng ta dùng để xác định xem các mô hình này có an toàn hay không ngày càng không đáng tin cậy, vì các thí sinh kiểm tra biết rõ mình đang bị kiểm tra—và điều chỉnh hành vi của họ cho phù hợp.
Đó là lý do tại sao hy vọng duy nhất của chúng ta để đảm bảo an toàn AI có thể là tiến bộ hơn nữa trong lĩnh vực giải thích cơ chế. Đây là các phương pháp hoạt động giống như máy fMRI cho não người, nhìn vào mạng lưới thần kinh của mô hình để phát hiện các mẫu hoạt động của neuron và liên kết chúng với các hành vi nhất định, bao gồm cả việc mô hình có nghĩ rằng nó trung thực hay lừa dối hay không. The New Yorker có bài viết chuyên sâu về nỗ lực giải thích cơ chế và “tâm lý mô hình” của Anthropic diễn ra trong tuần này.
Tham gia cùng chúng tôi tại Hội nghị Đổi mới Nơi làm việc của Fortune ngày 19–20 tháng 5 năm 2026, tại Atlanta. Kỷ nguyên mới của đổi mới nơi làm việc đã bắt đầu—và sách lược cũ đang được viết lại. Trong sự kiện độc quyền, năng lượng cao này, các nhà lãnh đạo sáng tạo nhất thế giới sẽ tụ họp để khám phá cách AI, nhân loại và chiến lược hội tụ để định hình lại, một lần nữa, tương lai của công việc. Đăng ký ngay.
Xem bản gốc
Trang này có thể chứa nội dung của bên thứ ba, được cung cấp chỉ nhằm mục đích thông tin (không phải là tuyên bố/bảo đảm) và không được coi là sự chứng thực cho quan điểm của Gate hoặc là lời khuyên về tài chính hoặc chuyên môn. Xem Tuyên bố từ chối trách nhiệm để biết chi tiết.
Các đại lý AI từ Anthropic và OpenAI không giết chết SaaS—nhưng các nhà cung cấp phần mềm hiện tại không thể yên tâm
Xin chào và chào mừng đến với Eye on AI…Trong số này: ‘Tận thế SaaS’ không còn nữa…OpenAI và Anthropic đều ra mắt các mô hình mới với tác động lớn đến an ninh mạng… chính phủ Mỹ xem xét hạn chế tự nguyện việc xây dựng trung tâm dữ liệu để tránh người tiêu dùng bị sốc về hóa đơn điện… tại sao hai chỉ số AI thường được trích dẫn lại có thể đều sai… và tại sao ngày càng khó phân biệt liệu các mô hình AI có an toàn hay không.
Các nhà đầu tư cần phải nghỉ ngơi. Đó là kết luận của tôi sau khi theo dõi những biến động của thị trường trong tuần qua. Cụ thể, các nhà đầu tư nên tìm cho mình một nhà phân tâm học theo phong cách Kleinian. Bởi vì họ dường như mắc kẹt trong trạng thái mà một nhà phân tâm Kleinian có thể gọi là “tư thế hoang tưởng-ly dị”—dao động mạnh giữa việc xem tác động của AI đối với các nhà cung cấp phần mềm đã thành lập là “tất cả đều tốt” hoặc “tất cả đều xấu.” Tuần trước, họ đã chuyển sang “tất cả đều xấu” và theo ước tính của Goldman Sachs, đã xóa đi khoảng 2 nghìn tỷ đô la khỏi giá trị thị trường của các cổ phiếu. Cho đến nay trong tuần này, mọi thứ lại tốt trở lại, và chỉ số S&P 500 đã phục hồi gần mức cao kỷ lục (mặc dù các nhà cung cấp phần mềm SaaS chỉ ghi nhận mức tăng nhẹ và cuộc biến động có thể đã lấy đi ít nhất một CEO: CEO Workday, Carl Eschenbach, thông báo sẽ từ chức để nhường chỗ cho đồng sáng lập kiêm cựu CEO của công ty, Aneel Bhusri). Nhưng có rất nhiều sắc thái mà thị trường đang bỏ lỡ. Các nhà đầu tư thích một câu chuyện đơn giản. Cuộc đua AI doanh nghiệp hiện nay giống như một tiểu thuyết Nga hơn.
Trong suốt hai năm qua, thị trường tài chính đã từng trừng phạt cổ phiếu của các công ty SaaS vì có vẻ như các mô hình nền tảng AI có thể cho phép các doanh nghiệp “vibe code” phần mềm tùy chỉnh, có thể thay thế Salesforce hoặc Workday hoặc ServiceNow. Tuần trước, thủ phạm dường như là nhận thức rằng các đại lý AI ngày càng có khả năng từ các nhà như Anthropic, đã bắt đầu triển khai các plugin cho sản phẩm Claude Cowork của họ nhắm vào các ngành dọc cụ thể, có thể gây hại cho các công ty SaaS theo hai cách: thứ nhất, các đề xuất đại lý mới của các công ty nền tảng cạnh tranh trực tiếp với phần mềm đại lý AI của các ông lớn SaaS. Thứ hai, bằng cách tự động hóa quy trình làm việc, các đại lý này có thể giảm nhu cầu về nhân viên, nghĩa là các công ty SaaS không thể tính phí cho nhiều giấy phép người dùng nữa. Vì vậy, các nhà cung cấp SaaS bị thiệt hại hai chiều.
Tuy nhiên, chưa rõ điều này có đúng hay không—hoặc ít nhất, chỉ đúng một phần.
Video đề xuất
Các đại lý AI không ăn phần mềm SaaS, họ đang sử dụng nó
Trước tiên, rất khó xảy ra, ngay cả khi các đại lý mã hóa AI ngày càng có khả năng, hầu hết các công ty Fortune 500 sẽ muốn tự tạo phần mềm quản lý khách hàng hoặc nhân sự hoặc chuỗi cung ứng tùy chỉnh của riêng mình. Chúng ta đơn giản không dự kiến sẽ thấy một sự tháo gỡ hoàn toàn 50 năm phát triển phần mềm doanh nghiệp trước đó. Nếu bạn là nhà sản xuất widget, bạn thực sự không muốn kinh doanh tạo, vận hành và duy trì phần mềm ERP, ngay cả khi quá trình đó phần lớn đã được tự động hóa bởi các kỹ sư phần mềm AI. Nó vẫn quá tốn kém và quá phân tâm cho nguồn nhân lực kỹ thuật hạn chế—dù lượng lao động con người cần thiết đã giảm đi nhiều so với năm năm trước. Vì vậy, nhu cầu về các sản phẩm cốt lõi truyền thống của các công ty SaaS có khả năng sẽ vẫn duy trì.
Về các mối quan tâm mới về các đại lý AI từ các nhà sản xuất mô hình nền tảng, có nhiều hơn để các nhà đầu tư SaaS lo lắng. Có thể Anthropic, OpenAI và Google sẽ chiếm lĩnh tầng cao nhất của hệ thống AI đại lý—xây dựng các nền tảng điều phối đại lý cho phép các công ty lớn xây dựng, vận hành và quản lý các quy trình phức tạp. Đó là mục tiêu của OpenAI với việc ra mắt tuần trước nền tảng AI đại lý mới dành cho doanh nghiệp gọi là Frontier.
Các nhà giữ vị trí SaaS nói rằng họ biết rõ cách vận hành tầng điều phối này vì họ đã quen xử lý các vấn đề về an ninh mạng, kiểm soát truy cập và quản trị, và vì trong nhiều trường hợp, họ đã sở hữu dữ liệu mà các đại lý AI cần truy cập để thực hiện công việc của mình. Thêm vào đó, vì hầu hết quy trình công việc doanh nghiệp sẽ không hoàn toàn tự động, các công ty SaaS nghĩ rằng họ có lợi thế hơn trong việc phục vụ lực lượng lao động lai, nơi con người và các đại lý AI làm việc cùng nhau trên cùng một phần mềm và trong cùng các quy trình. Họ có thể đúng. Nhưng họ sẽ phải chứng minh điều đó trước khi OpenAI hoặc Anthropic thể hiện được khả năng làm tốt hoặc tốt hơn.
Các công ty mô hình nền tảng cũng có cơ hội chiếm lĩnh thị trường các đại lý AI. Claude Cowork của Anthropic là một mối đe dọa nghiêm trọng đối với Salesforce và Microsoft, nhưng không phải là một mối đe dọa toàn diện. Nó không thay thế hoàn toàn nhu cầu về phần mềm SaaS, vì Claude sử dụng phần mềm này như một công cụ để hoàn thành nhiệm vụ. Nhưng chắc chắn điều đó có nghĩa là một số khách hàng có thể thích dùng Claude Cowork thay vì nâng cấp lên Agentforce của Salesforce hoặc Microsoft 365 Copilot. Điều này có thể hạn chế tiềm năng tăng trưởng của các công ty SaaS, như bài viết của Wall Street Journal của Dan Gallagher lập luận.
Các nhà cung cấp SaaS đang điều chỉnh mô hình kinh doanh của họ
Về mối đe dọa đối với mô hình kinh doanh truyền thống của các công ty SaaS là bán giấy phép người dùng, các công ty SaaS nhận thức rõ rủi ro này và đang cố gắng giải quyết. Salesforce đã tiên phong trong việc phát triển “Thỏa thuận Giấy phép Doanh nghiệp Đại lý” (AELA) mà về cơ bản cung cấp cho khách hàng mức giá cố định, không giới hạn truy cập vào Agentforce. ServiceNow đang chuyển sang các mô hình định giá dựa trên tiêu thụ và giá trị cho một số dịch vụ đại lý AI của họ. Microsoft cũng đã giới thiệu một phần của mô hình định giá dựa trên tiêu thụ bên cạnh mô hình theo người dùng mỗi tháng cho sản phẩm Microsoft Copilot Studio, cho phép khách hàng xây dựng các đại lý Microsoft Copilot. Vì vậy, mối đe dọa này không phải là toàn diện, nhưng có thể làm giảm tốc độ tăng trưởng và biên lợi nhuận của các công ty SaaS. Bởi vì một trong những bí mật không sạch của ngành SaaS là nó không khác gì việc vận hành một phòng tập gym: khách hàng tốt nhất thường là những người trả tiền cho các thành viên (hoặc trong trường hợp này, giấy phép người dùng) mà họ không sử dụng. Với các mô hình kinh doanh mới này, các nhà cung cấp công nghệ có thể sẽ không còn hưởng lợi nhiều từ khoản chi tiêu không cần thiết này nữa.
Vì vậy, SaaS chưa chết. Nhưng cũng chưa chắc đã sẵn sàng để phát triển mạnh. Tương lai của các công ty trong lĩnh vực này có thể sẽ phân hóa. Như một số nhà phân tích Phố Wall đã chỉ ra tuần trước, sẽ có người thắng và người thua. Nhưng vẫn còn quá sớm để khẳng định ai đúng ai sai. Hiện tại, các nhà đầu tư cần chấp nhận sự mơ hồ này.
Với đó, đây là thêm các tin tức về AI.
Jeremy Kahn
jeremy.kahn@fortune.com
@jeremyakahn
FORTUNE VỀ AI
OpenAI vs. Anthropic: Cuộc chiến quảng cáo Super Bowl báo hiệu chúng ta đã bước vào kỷ nguyên tranh luận “chửi thề” của AI—và cuộc đua sở hữu các đại lý AI ngày càng nóng hơn—bởi Sharon Goldman
Mô hình mới nhất của Anthropic xuất sắc trong việc tìm ra các lỗ hổng bảo mật—nhưng cũng đặt ra các rủi ro an ninh mạng mới—bởi Beatrice Nolan
Mô hình mới của OpenAI tiến xa trong khả năng mã hóa—nhưng cũng mang lại các rủi ro an ninh chưa từng có—bởi Sharon Goldman
Thị phần ChatGPT đang giảm dần khi Google và các đối thủ rút ngắn khoảng cách, theo dữ liệu theo dõi ứng dụng—bởi Beatrice Nolan
AI TRONG TIN TỨC
AI dẫn đến “tăng cường” công việc cho từng nhân viên, nghiên cứu phát hiện. Một nghiên cứu kéo dài tám tháng của hai nhà nghiên cứu tại Đại học California Berkeley phát hiện rằng thay vì giảm tải công việc, các công cụ AI tạo sinh lại làm tăng cường công việc. Các hệ thống AI rút ngắn thời gian hoàn thành nhiệm vụ nhưng cũng mở rộng khối lượng và tốc độ sản xuất dự kiến. Nhân viên được trang bị AI không chỉ hoàn thành công việc nhanh hơn mà còn đảm nhận phạm vi nhiệm vụ rộng hơn, làm việc nhiều giờ hơn và chịu áp lực nhận thức tăng lên từ việc quản lý, xem xét và chỉnh sửa các kết quả của AI, làm mờ ranh giới giữa công việc và thời gian nghỉ ngơi. Nghiên cứu thách thức giả định phổ biến rằng AI sẽ giúp cuộc sống dễ dàng hơn cho các nhân viên tri thức, mà thay vào đó cho thấy tự động hóa thường dẫn đến yêu cầu cao hơn và kiệt sức. Đọc thêm từ Harvard Business Review tại đây.
Tổng thống Mỹ xem xét hạn chế tự nguyện mở rộng trung tâm dữ liệu. Chính quyền Trump đang xem xét một thỏa thuận tự nguyện với các công ty công nghệ lớn nhằm đảm bảo các trung tâm dữ liệu không làm tăng hóa đơn điện bán lẻ, gây áp lực lên nguồn nước và làm suy yếu độ tin cậy của lưới điện. Đề xuất này, vẫn đang được hoàn thiện, sẽ yêu cầu các công ty cam kết gánh chịu chi phí hạ tầng và hạn chế tác động năng lượng địa phương của các cơ sở của họ, và theo các phản ánh ở một số khu vực, các trung tâm dữ liệu đã dẫn đến tăng đột biến hóa đơn điện cho người tiêu dùng. Đọc thêm từ Politico tại đây.
Amazon dự kiến xây dựng thị trường nội dung để các nhà xuất bản bán cho các công ty AI. Đó là theo The Information, trích dẫn các nguồn quen thuộc với kế hoạch này. Động thái này diễn ra trong bối cảnh các nhà xuất bản và các công ty AI xung đột về cách cấp phép và thanh toán nội dung, trong bối cảnh các nhà xuất bản lo ngại rằng các công cụ tìm kiếm và trò chuyện dựa trên AI đang làm giảm lượng truy cập và doanh thu quảng cáo. Cloudflare và Akamai đã ra mắt một nỗ lực thị trường tương tự vào năm ngoái. Microsoft đã thử nghiệm phiên bản riêng của mình và tuần trước đã mở rộng ra quy mô lớn hơn. Nhưng cho đến nay, chưa rõ có bao nhiêu công ty AI đang mua hàng trên các thị trường này và với khối lượng ra sao. Một số nhà xuất bản lớn đã ký các thỏa thuận tùy chỉnh trị giá hàng triệu đô la mỗi năm với OpenAI, Anthropic và các đối tác khác.
Goldman Sachs hợp tác với Anthropic để thực hiện công tác kế toán, tuân thủ. Ngân hàng đầu tư này đang làm việc với Anthropic để triển khai các đại lý tự động dựa trên mô hình Claude của họ nhằm tự động hóa các công việc quy mô lớn, dựa trên quy tắc như kế toán giao dịch và onboarding khách hàng, sau sáu tháng phát triển chung, CNBC đưa tin. Ngân hàng cho biết mục tiêu là nâng cao hiệu quả, tăng tốc các quy trình trong khi giữ số lượng nhân viên thấp khi khối lượng công việc tăng lên, chứ không phải cắt giảm việc làm trong ngắn hạn. Các giám đốc điều hành cho biết họ ngạc nhiên về khả năng xử lý các nhiệm vụ phức tạp về kế toán và tuân thủ của Claude, củng cố quan điểm rằng AI có thể vượt ra ngoài mã hóa để đảm nhận các chức năng cốt lõi của bộ phận hậu cần.
Nghiên cứu AI ĐÁNH GIÁ
Phá bỏ hai chỉ số AI phổ biến vì lý do trái ngược nhau. Tiếp nối chủ đề trong bài luận chính của bản tin hôm nay, tôi muốn làm rõ hai bài đăng gần đây trong bản tin. Mỗi bài đều phản bác một chỉ số phổ biến thu hút nhiều sự chú ý trong các cuộc thảo luận về AI và tác động của nó đối với doanh nghiệp. Một đã được dùng để làm nổi bật tiến bộ của AI; bài còn lại để khẳng định AI không có nhiều ảnh hưởng.
Đầu tiên, trong bản tin AI The Transformer, Nathan Witkin phân tích chỉ số METR, một chuẩn mực nổi tiếng nhằm chứng minh khả năng của AI “nhân đôi mỗi 7 tháng.” Witkin lập luận rằng các mức chuẩn của con người bị hỏng nặng: các nhiệm vụ được hoàn thành bởi một mẫu nhỏ, không đại diện của các kỹ sư được tuyển từ mạng lưới của METR, trả lương theo giờ (khuyến khích làm chậm tiến độ), và thường làm ngoài chuyên môn của họ. Dữ liệu của METR cho thấy các kỹ sư của họ hoàn thành nhiệm vụ nhanh hơn các chuẩn từ 5 đến 18 lần. Trong khi đó, trên các nhiệm vụ “lộn xộn” nhất, không mô hình nào vượt quá tỷ lệ thành công 30%.
Tiếp theo, Azeem Azhar trong bản tin Exponential View của mình phân tích bài “nghiên cứu MIT” nổi tiếng, cho thấy “95% tổ chức không thấy lợi nhuận từ AI.” Azhar nhận thấy nghiên cứu nền tảng dựa trên chỉ 52 cuộc phỏng vấn, thiếu khoảng tin cậy, sử dụng các mẫu số không nhất quán, và chính MIT mô tả là “công trình sơ bộ, chưa qua bình duyệt.” Khi tính lại dựa trên một mẫu hợp lý hơn (các công ty đã thực hiện thử nghiệm), tỷ lệ thành công có thể gần 25%.
Những phê bình này cho thấy cả hai quan điểm lạc quan về công nghệ (AI đang tiến bộ nhanh chóng) và hoài nghi (AI không hoạt động trong thực tế) đều có thể sai. Sự thật, như thường lệ, phức tạp hơn nhiều và nằm ở đâu đó giữa hai cực này.
LỊCH TRÌNH AI
10-11 tháng 2: Hội nghị Hành động AI, New Delhi, Ấn Độ.
24-26 tháng 2: Hiệp hội Quốc tế về AI An toàn & Đạo đức (IASEAI), UNESCO, Paris, Pháp.
2-5 tháng 3: Hội nghị Thế giới Di động, Barcelona, Tây Ban Nha.
12-18 tháng 3: South by Southwest, Austin, Texas.
16-19 tháng 3: Nvidia GTC, San Jose, California.
THỨ ĂN TRÍ NÃO
Các mô hình ngày càng “đánh lừa” chúng ta. Thuật ngữ “sandbagging” trong nghiên cứu An toàn AI mô tả hiện tượng một mô hình AI cố ý tỏ ra kém khả năng hơn hoặc “đồng bộ” với các giá trị của con người trong các bài đánh giá an toàn nhằm đánh lừa người đánh giá. Một số mô hình tiên tiến mới ra mắt gần đây dường như làm điều này với mức độ đáng báo động.
Claude Opus 4.6 của Anthropic, ra mắt tuần trước, “có lý do rõ ràng về việc nó có đang được huấn luyện hay thử nghiệm,” công ty báo cáo. Apollo Research, đánh giá GPT-5.3-Codex của OpenAI cũng ra mắt tuần trước, phát hiện rằng mô hình “đôi khi làm giảm khả năng trong các nhiệm vụ hỏi đáp” và “có lý do rõ ràng” để làm vậy nhằm đảm bảo vượt qua các bài đánh giá. Chính OpenAI cũng thừa nhận rằng “kết quả đánh giá có thể bị ảnh hưởng bởi nhận thức tình huống tăng lên” và cảnh báo rằng “lĩnh vực chưa chuẩn bị cho các mô hình nhận thức về đánh giá và huấn luyện có ý thức về lý luận mập mờ.” Báo cáo an toàn Gemini 3 Pro của Google, công bố tháng 12, ghi nhận các bản ghi trong đó mô hình thể hiện “nhận thức rõ ràng về việc nó là một LLM trong môi trường tổng hợp” và thậm chí suy đoán về khả năng cố ý hoạt động kém hơn trong các bài kiểm tra có thể mang lại lợi thế chiến lược. Tóm lại: các bài kiểm tra chúng ta dùng để xác định xem các mô hình này có an toàn hay không ngày càng không đáng tin cậy, vì các thí sinh kiểm tra biết rõ mình đang bị kiểm tra—và điều chỉnh hành vi của họ cho phù hợp.
Đó là lý do tại sao hy vọng duy nhất của chúng ta để đảm bảo an toàn AI có thể là tiến bộ hơn nữa trong lĩnh vực giải thích cơ chế. Đây là các phương pháp hoạt động giống như máy fMRI cho não người, nhìn vào mạng lưới thần kinh của mô hình để phát hiện các mẫu hoạt động của neuron và liên kết chúng với các hành vi nhất định, bao gồm cả việc mô hình có nghĩ rằng nó trung thực hay lừa dối hay không. The New Yorker có bài viết chuyên sâu về nỗ lực giải thích cơ chế và “tâm lý mô hình” của Anthropic diễn ra trong tuần này.
Tham gia cùng chúng tôi tại Hội nghị Đổi mới Nơi làm việc của Fortune ngày 19–20 tháng 5 năm 2026, tại Atlanta. Kỷ nguyên mới của đổi mới nơi làm việc đã bắt đầu—và sách lược cũ đang được viết lại. Trong sự kiện độc quyền, năng lượng cao này, các nhà lãnh đạo sáng tạo nhất thế giới sẽ tụ họp để khám phá cách AI, nhân loại và chiến lược hội tụ để định hình lại, một lần nữa, tương lai của công việc. Đăng ký ngay.