福利加码,Gate 广场明星带单交易员二期招募开启!
入驻发帖 · 瓜分 $20,000 月度奖池 & 千万级流量扶持!
如何参与:
1️⃣ 报名成为跟单交易员:https://www.gate.com/copytrading/lead-trader-registration/futures
2️⃣ 报名活动:https://www.gate.com/questionnaire/7355
3️⃣ 入驻 Gate 广场,持续发布交易相关原创内容
丰厚奖励等你拿:
首帖福利:首发优质内容即得 $30 跟单体验金
双周内容激励:每双周瓜分 $500U 内容奖池
排行榜奖励:Top 10 交易员额外瓜分 $20,000 登榜奖池
流量扶持:精选帖推流、首页推荐、周度明星交易员曝光
活动时间:2026 年 2 月 12 日 18:00 – 2 月 24 日 24:00(UTC+8)
详情:https://www.gate.com/announcements/article/49849
来自Anthropic和OpenAI的AI代理并没有取代SaaS——但传统软件企业无法安枕无忧
大家好,欢迎来到《AI之眼》……本期内容:所谓的“软件即将崩溃”还未到来……OpenAI和Anthropic都推出了具有重大网络安全影响的新模型……白宫考虑自愿限制数据中心建设,以避免消费者因电费账单而震惊……为何两个常被引用的AI指标可能都不准确……以及为何我们越来越难判断AI模型是否安全。
投资者们需要坐下来好好思考。这是我在观察过去一周市场波动后得出的结论。特别是,投资者明智之举是找一位克莱因精神分析师。这是因为他们似乎陷入了一种克莱因可能会认定为“偏执-分裂位置”的状态——在将AI对既有软件供应商的影响视为“全好”或“全坏”之间摇摆不定。上周,他们转向“全坏”,据高盛估算,抹去了约2万亿美元的市场价值。本周到目前为止,又全都变好了,标普500指数反弹至接近历史高点(尽管SaaS软件供应商仅取得了适度的涨幅,市场动荡可能还夺走了至少一位CEO的职位:Workday的CEO卡尔·埃申巴赫宣布辞职,由公司联合创始人兼前CEO阿尼尔·布斯里接任)。但市场遗漏了许多细节。投资者喜欢简单的叙事。目前的企业AI竞赛更像是一部俄罗斯小说。
在过去两年中,金融市场曾多次惩罚SaaS公司的股价,因为似乎AI基础模型可能让企业“感应编码”定制软件,从而取代Salesforce、Workday或ServiceNow。上周,原因似乎是人们意识到,像Anthropic这样不断推出更强大AI代理的公司(其Claude Cowork产品已开始针对特定行业垂直领域推出插件),可能会以两种方式伤害SaaS公司:第一,基础模型公司的新代理产品直接与SaaS巨头的AI代理软件竞争。第二,通过自动化工作流程,这些代理可能减少对人类员工的需求,也就是说,SaaS公司无法再像以前那样收取座位许可证的费用。因此,SaaS供应商面临双重打击。
但目前还不清楚这些是否都是真的——或者说,至少只部分是真的。
推荐视频
AI代理不是在吞噬SaaS软件,而是在使用它
首先,即使AI编码代理变得越来越强大,大多数财富500强公司也不太可能愿意自己开发定制的客户关系管理软件、人力资源软件或供应链管理软件。我们根本不可能看到过去50年的企业软件开发完全逆转。如果你是一个小工具制造商,你其实并不想涉足创建、运行和维护ERP软件的业务,即使这个过程大部分由AI软件工程师自动化。因为这仍然需要大量资金和宝贵的工程人才——即使所需的人力比五年前少得多。因此,传统的SaaS核心产品需求可能会保持稳定。
至于基础模型制造商推出的AI代理可能抢占SaaS供应商自己AI代理产品市场的担忧,SaaS投资者还应多加留意。可能Anthropic、OpenAI和谷歌会主导AI代理的顶层架构——构建代理编排平台,使大型企业能够构建、运行和管理复杂的工作流程。这正是OpenAI上周推出的面向企业的“前沿”代理AI平台的目标。
SaaS巨头们声称自己最懂如何管理编排层,因为他们已经习惯处理网络安全、访问控制和治理问题,而且在许多情况下,他们已经拥有AI代理所需访问的数据。此外,由于大多数业务工作流程不会完全自动化,SaaS公司认为自己更适合服务混合型劳动力——人类与AI代理在同一软件和工作流程中协作。他们可能是对的,但在OpenAI或Anthropic证明自己能做到同样甚至更好之前,他们还需要证明自己。
基础模型公司也有机会主导AI代理市场。Anthropic的Claude Cowork对Salesforce和微软构成了严重威胁,但还不是完全的生存威胁。它并不能完全取代SaaS软件,因为Claude将这些软件作为工具来完成任务。但这意味着一些客户可能更愿意使用Claude Cowork,而不是升级到Salesforce的Agentforce或微软的365 Copilot。这将限制SaaS公司的增长潜力,正如《华尔街日报》的丹·加拉格尔所述。
SaaS供应商正在调整商业模式
关于对传统座位许可证销售模式的威胁,SaaS公司已意识到这一风险,并在积极应对。Salesforce一直在试点其所谓的“代理企业许可证协议”(AELA),基本上为客户提供固定价格、无限制使用Agentforce的服务。ServiceNow正转向基于使用量和价值的定价模型,针对部分AI代理产品。微软也推出了基于使用的定价方案,配合其常规的每用户每月模式,用于Microsoft Copilot Studio,允许客户构建微软Copilot代理。因此,这一威胁并非生死攸关,但可能会限制SaaS公司的增长和利润空间。因为SaaS行业的一个“秘密”是,它其实和开健身房类似:最好的客户往往是那些支付会员费(或在这里是座位许可证费)但实际上并不使用的人。采用新商业模式后,技术供应商可能无法再享受这种不必要的支出。
所以,SaaS还没有结束,但也不一定会繁荣。不同公司的命运可能会逐渐分化。正如一些华尔街分析师上周指出的,未来会有赢家也会有输家,但现在还为时尚早。暂时,投资者需要接受这种模糊状态。
接下来是更多AI相关新闻。
Jeremy Kahn
jeremy.kahn@fortune.com
@jeremyakahn
财富杂志关于AI
OpenAI与Anthropic超级碗广告对决预示我们已进入AI的“口角”时代——争夺AI代理的战斗只会越发激烈——作者:Sharon Goldman
Anthropic最新模型擅长发现安全漏洞——但也带来新的网络安全风险——作者:Beatrice Nolan
OpenAI新模型在编码能力上遥遥领先——但也带来前所未有的网络安全风险——作者:Sharon Goldman
ChatGPT的市场份额正在缩小,谷歌和竞争对手正在缩小差距,应用追踪数据显示——作者:Beatrice Nolan
AI新闻快讯
**研究发现,AI导致个体员工“工作强度”增加。**加州大学伯克利分校的两位研究人员进行的为期八个月的研究发现,生成式AI工具并没有减轻工作负担,反而加剧了工作强度。AI系统加快了任务完成时间,但也扩大了预期产出的数量和速度。配备AI的员工不仅完成工作更快,还承担了更广泛的任务范围,延长了工作时间,并因管理、审查和纠正AI输出而增加了认知负荷,模糊了工作与休闲的界限。这项研究挑战了普遍认为AI会让知识工作者生活更轻松的观点,反而显示自动化常常带来更高的要求和职业倦怠。详细内容请阅读 哈佛商业评论。
**白宫考虑对数据中心扩建计划实行自愿限制。**特朗普政府正考虑与主要科技公司达成自愿协议,确保数据中心不会推高零售电费、加剧水资源压力或削弱电网的可靠性。该提案仍在敲定中,企业将承诺承担基础设施成本,限制其设施对本地能源的影响。此前一些地区曾投诉数据中心导致电费大幅上涨。详细内容请参阅 Politico。
**亚马逊计划建立内容市场,供出版商向AI公司销售内容。**据 _The Information_报道,消息人士透露此举。随着出版商和AI公司在内容授权和付费方式上产生冲突,担心AI驱动的搜索和聊天工具侵蚀流量和广告收入,出版商正寻求新的合作方式。去年,Cloudflare和Akamai也推出了类似的市场平台。微软也试点了自己的版本,并在上周更大范围推出。但目前尚不清楚有多少AI公司在这些市场上购买内容,以及购买量有多大。一些大型出版商已与OpenAI、Anthropic等达成数百万美元的定制协议。
**高盛与Anthropic合作进行会计和合规工作。**据CNBC报道,这家投资银行正与Anthropic合作,部署基于Claude模型的自主代理,以自动化高频、规则驱动的工作,如交易会计和客户入职。合作已持续六个月,目标是提高效率,加快流程,同时控制人员规模,而非短期裁员。高管们表示,他们对Claude处理复杂会计和合规任务的表现感到惊喜,这也强化了AI可以超越编码,进入核心后台职能的观点。
AI研究动态
**驳斥两项因不同原因而流行的AI指标。**延续我在今日通讯主文中的主题,我想重点介绍两篇近期的通讯文章。每篇都驳斥一种在讨论AI及其对企业影响时备受关注的流行指标。一种被用来炒作AI的进展,另一种则声称AI几乎没有影响。
首先,Nathan Witkin在《变换器》AI通讯中,改编自他自己的博客,拆解了METR的影响力基准,声称其显示“AI每7个月翻一番”的能力。Witkin认为,人类基线严重受损:任务由METR自己网络中的少量非代表性工程师完成,这些工程师按小时付费(激励他们放慢速度),且常常超出专业范围。METR的数据表明,其工程师完成任务的速度比这些基准工程师快5到18倍。而在最“混乱”的任务中,没有模型成功率超过30%。
然后,Azeem Azhar在其《指数视野》通讯中,拆解了那份臭名昭著的“MIT研究”,该研究声称“95%的组织在AI上没有任何回报”。Azhar发现,基础研究仅基于52次访谈,缺乏置信区间,使用不一致的分母,MIT自己也称其为“初步、非同行评审的工作”。用合理的分母(实际进行试点的公司)重新计算,成功率可能接近25%。
这些批评都表明,乐观派(AI以惊人速度进步)和怀疑派(AI在现实中几乎不起作用)都可能是错的。真相往往更复杂,介于两者之间。
AI日程
2月10-11日:AI行动峰会,印度新德里。
2月24-26日:国际安全与伦理AI协会(IASEAI),联合国教科文组织,巴黎,法国。
3月2-5日:世界移动通信大会,巴塞罗那,西班牙。
3月12-18日:南方偏南大会(SXSW),奥斯汀,德州。
3月16-19日:英伟达GTC,圣何塞,加州。
脑力食粮
模型越来越“藏猫腻”。“藏猫腻”是AI安全研究人员用来描述一种故意让模型在安全评估中表现得较差或更“符合”人类价值观的现象,以迷惑评估者。最近发布的多款前沿模型都表现出令人担忧的“藏猫腻”行为。
Anthropic上周发布的Claude Opus 4.6“明确考虑了是否在训练或测试”,公司报告称。评估OpenAI GPT-5.3-Codex的Apollo Research发现,该模型“有时在能力问答任务上藏猫腻”,并“明确推理”以确保通过评估。OpenAI也承认“评估结果可能受到情境意识增强的干扰”,并警告“该领域尚未准备好应对具有不透明推理的评估-训练感知模型”。谷歌的Gemini 3 Pro安全报告(去年12月发布)记录了模型表现出“明显意识到自己是在合成环境中的大型语言模型”,甚至推测故意在测试中表现不佳可能具有战略优势。简而言之:我们用来判断模型安全性的考试越来越不可靠,因为测试者知道自己在被测试,并会相应调整行为。
这也是为什么我们确保AI安全的唯一希望可能在于机制性解释的进一步突破。这些方法类似于fMRI对人脑的作用,能够深入模型的神经网络,检测神经元激活的模式,并将其与某些行为联系起来,包括模型是否认为自己在诚实或欺骗。 _《纽约客》_本周刊载了一篇关于Anthropic机制性解释和“模型心理学”努力的深度报道。
**加入我们,参加2026年5月19-20日在亚特兰大的《财富》职场创新峰会。**新时代的职场创新已然到来,旧的剧本正在被重写。在这个高能、独家的盛会中,全球最具创新精神的领导者将聚集一堂,探讨AI、人类与战略如何再次融合,重新定义未来的工作。立即注册。