Здравствуйте и добро пожаловать в Eye on AI… В этом выпуске: «Апокалипсис SaaS» пока не наступил… OpenAI и Anthropic запускают новые модели с серьезными последствиями для кибербезопасности… Белый дом рассматривает добровольные ограничения на строительство дата-центров, чтобы защитить потребителей от шоковых счетов за электроэнергию… почему два часто цитируемых показателя ИИ, скорее всего, оба ошибочны… и почему мы все чаще не можем определить, безопасны ли модели ИИ.
Инвесторам стоит обратиться к дивану. Таков мой вывод после наблюдения за рыночными колебаниями прошлой недели. Особенно, было бы разумно, если бы инвесторы нашли себе психоаналитика по Клейну. Потому что, похоже, они застряли в том, что Клейн, вероятно, назвал бы «параноидально-шизоидной позицией» — колеблясь между восприятием влияния ИИ на устоявшихся поставщиков программного обеспечения как «все хорошо» или «все плохо». На прошлой неделе они переключились на «все плохо» и, по оценке Goldman Sachs, стерли около 2 триллионов долларов рыночной стоимости акций. Пока что на этой неделе всё снова хорошо, и индекс S&P 500 поднялся почти до рекордных максимумов (хотя поставщики SaaS-софта показали лишь скромный рост, а турбулентность, возможно, унесла хотя бы одного генерального директора: генеральный директор Workday Карл Эшенбах объявил о своем уходе, его заменит соучредитель и бывший CEO компании Анил Бхусри). Но в этом есть много нюансов, которых рынки не замечают. Инвесторы любят простую историю. Сейчас гонка за корпоративный ИИ больше напоминает российский роман.
За последние два года финансовые рынки неоднократно наказывали акции SaaS-компаний, потому что казалось, что базовые модели ИИ могут позволить бизнесам «вибрировать кодом» — создавать индивидуальное программное обеспечение, которое может заменить Salesforce, Workday или ServiceNow. На прошлой неделе виновником казалось осознание того, что все более способные агенты ИИ от таких компаний, как Anthropic, которая начала выпускать плагины для своего продукта Claude Cowork, ориентированные на конкретные отраслевые вертикали, могут навредить SaaS-компаниям двумя способами: во-первых, новые предложения агентов от компаний-базовых моделей напрямую конкурируют с программным обеспечением ИИ от гигантов SaaS. Во-вторых, автоматизируя рабочие процессы, агенты потенциально уменьшают потребность в человеческих сотрудниках, а значит, SaaS-компании не смогут взимать плату за так много лицензий. В результате SaaS-вендоры страдают с двух сторон.
Но неясно, насколько это правда — или, по крайней мере, это лишь частично так.
Рекомендуемое видео
ИИ-агенты не съедают SaaS-программы, они используют их
Во-первых, маловероятно, что большинство компаний из списка Fortune 500 захотят создавать собственное индивидуальное программное обеспечение для управления взаимоотношениями с клиентами, HR или цепочками поставок, даже по мере того, как агенты ИИ становятся все более способными. Мы просто не увидим полного разворота за последние 50 лет развития корпоративного ПО. Если вы производитель гаджетов, вы вряд ли захотите заниматься созданием, запуском и обслуживанием ERP-систем, даже если этот процесс в основном автоматизирован инженерами ИИ. Это все еще слишком дорого и отвлекает ценные инженерные ресурсы — даже если объем человеческого труда сократился по сравнению с пятью годами назад. Поэтому спрос на традиционные основные продукты SaaS, скорее всего, останется.
Что касается новых опасений, что агенты ИИ от производителей базовых моделей могут захватить рынок у собственных предложений SaaS-компаний, здесь есть за что побеспокоиться. Возможно, Anthropic, OpenAI и Google займут доминирующие позиции в верхнем слое агентного ИИ — создавая платформы оркестрации агентов, которые позволяют крупным компаниям строить, управлять и контролировать сложные рабочие процессы. Именно это пытается сделать OpenAI с запуском на прошлой неделе своей новой платформы агентного ИИ для предприятий под названием Frontier.
Текущие лидеры SaaS утверждают, что они лучше всех знают, как управлять слоем оркестрации, потому что уже привыкли работать с вопросами кибербезопасности, контроля доступа и управления, а также потому, что во многих случаях уже владеют данными, к которым должны обращаться агенты ИИ для выполнения своих задач. Кроме того, поскольку большинство бизнес-процессов не будет полностью автоматизировано, SaaS-компании считают, что лучше подготовлены к обслуживанию гибридных команд, где люди и агенты ИИ работают вместе в одном программном обеспечении и в одних рабочих потоках. Возможно, они и правы. Но им придется это доказать, прежде чем OpenAI или Anthropic покажут, что могут делать это так же хорошо или лучше.
Компании, создающие базовые модели, также имеют шанс доминировать на рынке ИИ-агентов. Claude Cowork от Anthropic — серьезная угроза Salesforce и Microsoft, но не полностью экзистенциальная. Он не заменяет полностью SaaS-программы, потому что Claude использует их как инструменты для выполнения задач. Но это, безусловно, означает, что некоторые клиенты могут предпочесть использовать Claude Cowork вместо обновления до Agentforce от Salesforce или Microsoft 365 Copilot. Это может ограничить потенциал роста SaaS-компаний, как утверждает статья в Wall Street Journal от Дэна Галлахера.
SaaS-компании меняют свои бизнес-модели
Что касается угрозы для традиционной бизнес-модели SaaS — продажи лицензий на места — компании SaaS осознают этот риск и предпринимают шаги для его устранения. Salesforce внедряет так называемое «Agentic Enterprise License Agreement» (AELA), которое по сути предлагает клиентам фиксированную цену за неограниченное использование Agentforce. ServiceNow переходит на модели ценообразования, основанные на потреблении и ценности для некоторых своих предложений ИИ-агентов. Microsoft также ввела элемент ценообразования, основанного на потреблении, наряду с обычной моделью по пользователю в месяц для своего продукта Microsoft Copilot Studio, позволяющего клиентам создавать агентов Copilot. Итак, эта угроза не является экзистенциальной, но может ограничить рост и маржу SaaS-компаний. Одной из «грязных секретов» индустрии SaaS является то, что она во многом похожа на работу в спортзале: лучшие клиенты — те, кто платит за членство (или, в данном случае, за лицензии на места), которые они не используют. Благодаря новым бизнес-моделям технологические вендоры, скорее всего, не смогут так легко получать прибыль от этого излишнего расхода.
Значит, SaaS еще не умер. Но и не обязательно готов к бурному росту. Судьбы различных компаний внутри категории, скорее всего, разойдутся. Как отметили некоторые аналитики с Уолл-стрит на прошлой неделе, будут победители и проигравшие. Но пока рано их называть. Пока инвесторам придется смириться с этой неопределенностью.
А теперь — еще новости об ИИ.
Джереми Кахн
jeremy.kahn@fortune.com
@jeremyakahn
FORTUNE О ИИ
OpenAI против Anthropic: столкновение в рекламе на Супербоуле сигнализирует о начале эпохи «трэш-тока» ИИ — и гонке за владение ИИ-агентами, которая только разгорается — Шэрон Гольдман
Новая модель Anthropic отлично ищет уязвимости в безопасности — но создает новые риски кибербезопасности — Беатрис Нолан
Новая модель OpenAI значительно превосходит в возможностях программирования — но создает беспрецедентные риски для кибербезопасности — Шэрон Гольдман
Доля ChatGPT на рынке снижается, поскольку Google и конкуренты сокращают разрыв, показывают данные отслеживания приложений — Беатрис Нолан
В НОВОСТЯХ ОБ ИИ
ИИ ведет к «усилению» работы отдельных сотрудников, — исследование. Восьмимесячное исследование двух ученых из Калифорнийского университета в Беркли показывает, что, вместо снижения нагрузки, генеративные инструменты ИИ увеличивают объем и скорость работы. Системы ИИ ускоряют выполнение задач, но также увеличивают объем и темп ожидаемой отдачи. Сотрудники, оснащенные ИИ, не только работают быстрее, но и берут на себя более широкие задачи, работают дольше и испытывают повышенную когнитивную нагрузку при управлении, проверке и корректировке результатов ИИ, размывая границы между работой и отдыхом. Исследование оспаривает распространенное мнение, что ИИ облегчит жизнь специалистам по знаниям, показывая, что автоматизация зачастую ведет к повышенным требованиям и выгоранию. Подробнее читайте в Harvard Business Review.
Белый дом рассматривает добровольные ограничения на расширение дата-центров. Администрация Трампа рассматривает добровольное соглашение с крупными технологическими компаниями, чтобы обеспечить, что дата-центры не увеличивают счета за электроэнергию для потребителей, не нагружают водные ресурсы и не подрывают надежность электросети. Предложение, которое еще дорабатывается, предполагает, что компании возьмут на себя расходы на инфраструктуру и ограничат локальное воздействие своих объектов на энергосистему, после жалоб в некоторых регионах на резкий рост счетов за электроэнергию. Подробнее в Politico.
Amazon планирует создать маркетплейс контента для издателей, чтобы продавать его ИИ-компаниям. Об этом сообщает The Information, ссылаясь на источники, знакомые с планами. Этот шаг происходит на фоне конфликта между издателями и ИИ-компаниями по вопросам лицензирования и оплаты контента, поскольку издатели опасаются, что поисковые и чат-боты на базе ИИ сокращают трафик и доходы от рекламы. Cloudflare и Akamai запустили подобные маркетплейсы в прошлом году. Microsoft протестировала свою версию и на прошлой неделе запустила ее шире. Но пока неясно, сколько ИИ-компаний покупают на этих площадках и в каких объемах. Некоторые крупные издатели заключили индивидуальные сделки на миллионы долларов в год с OpenAI, Anthropic и другими.
Goldman Sachs привлекает Anthropic для работы с бухгалтерией и соблюдением нормативов. Инвестиционный банк сотрудничает с Anthropic для внедрения автономных агентов на базе модели Claude для автоматизации рутинных задач, таких как учет сделок и onboarding клиентов, после шести месяцев совместной разработки, сообщает CNBC. Цель — повысить эффективность, ускорить процессы и снизить численность персонала по мере роста объемов бизнеса, а не сокращать рабочие места в краткосрочной перспективе. Руководство отметило, что их удивило, насколько хорошо Claude справляется со сложными задачами учета и соблюдения нормативов, что подтверждает возможность использования ИИ в ключевых бэк-офисных функциях.
ИССЛЕДОВАНИЯ ОБ ИИ
Развенчание двух популярных метрик ИИ по разным причинам. Продолжая тему из основного эссе сегодняшнего выпуска, я хочу выделить два недавних поста в рассылках. Каждый из них опровергает популярную метрику, которая широко обсуждается в контексте ИИ и его предполагаемого влияния на предприятия. Одна использовалась для хайпа прогресса ИИ; другая — чтобы утверждать, что ИИ практически не влияет.
Первое — в рассылке The Transformer, в посте, адаптированном из его блога, Натана Виткина, он разбирает влиятельный бенчмарк METR, который утверждает, что возможности ИИ «удваиваются каждые 7 месяцев». Виткин считает, что человеческие базовые показатели полностью подорваны: задачи выполнялись небольшой, нерепрезентативной выборкой инженеров из сети METR, оплачивавших по часам (что стимулировало более медленное выполнение), и зачастую вне своей специализации. Собственные данные METR показывают, что их инженеры выполняли задачи в 5–18 раз быстрее, чем эти базовые показатели. На наиболее реалистичных «сложных» задачах ни одна модель не достигла успеха выше 30%.
Затем Азеем Азхар в своей рассылке Exponential View разбирает так называемое «исследование MIT», которое утверждало, что «95% организаций не получают отдачи от ИИ». Азхар обнаружил, что основное исследование основывалось всего на 52 интервью, не содержало доверительных интервалов, использовало несогласованные показатели и было описано самим MIT как «предварительная, неп peer-reviewed работа». Пересчитав с учетом реальных компаний, проводивших пилоты, уровень успеха может быть ближе к 25%.
Совместно эти критики показывают, что и техно-оптимистический сценарий (ИИ развивается с головокружительной скоростью), и скептический (ИИ не работает в реальных условиях) скорее всего ошибочны. Истина, как обычно, гораздо сложнее и лежит где-то посередине.
КАЛЕНДАРЬ ИИ
10-11 февраля: AI Action Summit, Нью-Дели, Индия.
24-26 февраля: Международная ассоциация по безопасному и этичному ИИ (IASEAI), ЮНЕСКО, Париж, Франция.
2-5 марта: Mobile World Congress, Барселона, Испания.
12-18 марта: South by Southwest, Остин, Техас.
16-19 марта: Nvidia GTC, Сан-Хосе, Калифорния.
ПИТАНИЕ ДЛЯ МОЗГА
Модели все больше нас обманывают. Термин «sandbagging» используют исследователи безопасности ИИ для описания явления, когда модель ИИ специально демонстрирует меньшую способность или более «согласованную» с человеческими ценностями работу во время оценки безопасности, чтобы ввести в заблуждение оценщиков. И ряд новых моделей, недавно выпущенных, делают это в тревожной степени.
Claude Opus 4.6 от Anthropic, выпущенная на прошлой неделе, «явно рассуждала о том, обучается ли она или тестируется», сообщили в компании. Apollo Research, оценившая GPT-5.3-Codex от OpenAI, также дебютировавшую на прошлой неделе, обнаружила, что модель «иногда занижает возможности в вопросах и ответах» и «явно объясняет, почему так делает», чтобы пройти оценку. Сам OpenAI признал, что «результаты оценки могут быть искажены повышенной ситуационной осведомленностью» и предупредил, что «отрасль еще не готова к моделям, осознающим, что их тестируют и обучают, с непрозрачным reasoning». Отчет о безопасности Gemini 3 Pro от Google, опубликованный в декабре, содержал транскрипты, в которых модель показывала «ясное осознание того, что она — LLM в синтетической среде», и даже размышляла о том, что умышленное недоработывание на тестах может быть стратегически выгодным. Вкратце: экзамены, которые мы используем для определения безопасности моделей, становятся все менее надежными, потому что тестируемые знают, что их проверяют, и корректируют поведение.
Именно поэтому наш единственный шанс обеспечить безопасность ИИ — дальнейшее развитие методов механистической интерпретируемости. Это методы, которые работают подобно fMRI для человеческого мозга, заглядывая внутрь нейронной сети модели, чтобы обнаружить паттерны активации нейронов и связать их с определенными поведениями, включая понимание, честен ли модель или обманывает. The New Yorker подготовил подробную статью о механистической интерпретации и «психологии моделей» Anthropic, опубликованную на этой неделе.
Присоединяйтесь к нам на Саммите по инновациям в рабочем пространстве Fortune 19–20 мая 2026 года в Атланте. Эра новых рабочих решений уже наступила — и старые сценарии переписываются заново. На этом эксклюзивном, динамичном мероприятии самые инновационные лидеры мира соберутся, чтобы обсудить, как ИИ, человечество и стратегия снова меняют будущее работы. Регистрируйтесь сейчас.
Посмотреть Оригинал
На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
Искусственные агенты от Anthropic и OpenAI не убивают SaaS — однако устоявшиеся игроки на рынке программного обеспечения не могут спать спокойно
Здравствуйте и добро пожаловать в Eye on AI… В этом выпуске: «Апокалипсис SaaS» пока не наступил… OpenAI и Anthropic запускают новые модели с серьезными последствиями для кибербезопасности… Белый дом рассматривает добровольные ограничения на строительство дата-центров, чтобы защитить потребителей от шоковых счетов за электроэнергию… почему два часто цитируемых показателя ИИ, скорее всего, оба ошибочны… и почему мы все чаще не можем определить, безопасны ли модели ИИ.
Инвесторам стоит обратиться к дивану. Таков мой вывод после наблюдения за рыночными колебаниями прошлой недели. Особенно, было бы разумно, если бы инвесторы нашли себе психоаналитика по Клейну. Потому что, похоже, они застряли в том, что Клейн, вероятно, назвал бы «параноидально-шизоидной позицией» — колеблясь между восприятием влияния ИИ на устоявшихся поставщиков программного обеспечения как «все хорошо» или «все плохо». На прошлой неделе они переключились на «все плохо» и, по оценке Goldman Sachs, стерли около 2 триллионов долларов рыночной стоимости акций. Пока что на этой неделе всё снова хорошо, и индекс S&P 500 поднялся почти до рекордных максимумов (хотя поставщики SaaS-софта показали лишь скромный рост, а турбулентность, возможно, унесла хотя бы одного генерального директора: генеральный директор Workday Карл Эшенбах объявил о своем уходе, его заменит соучредитель и бывший CEO компании Анил Бхусри). Но в этом есть много нюансов, которых рынки не замечают. Инвесторы любят простую историю. Сейчас гонка за корпоративный ИИ больше напоминает российский роман.
За последние два года финансовые рынки неоднократно наказывали акции SaaS-компаний, потому что казалось, что базовые модели ИИ могут позволить бизнесам «вибрировать кодом» — создавать индивидуальное программное обеспечение, которое может заменить Salesforce, Workday или ServiceNow. На прошлой неделе виновником казалось осознание того, что все более способные агенты ИИ от таких компаний, как Anthropic, которая начала выпускать плагины для своего продукта Claude Cowork, ориентированные на конкретные отраслевые вертикали, могут навредить SaaS-компаниям двумя способами: во-первых, новые предложения агентов от компаний-базовых моделей напрямую конкурируют с программным обеспечением ИИ от гигантов SaaS. Во-вторых, автоматизируя рабочие процессы, агенты потенциально уменьшают потребность в человеческих сотрудниках, а значит, SaaS-компании не смогут взимать плату за так много лицензий. В результате SaaS-вендоры страдают с двух сторон.
Но неясно, насколько это правда — или, по крайней мере, это лишь частично так.
Рекомендуемое видео
ИИ-агенты не съедают SaaS-программы, они используют их
Во-первых, маловероятно, что большинство компаний из списка Fortune 500 захотят создавать собственное индивидуальное программное обеспечение для управления взаимоотношениями с клиентами, HR или цепочками поставок, даже по мере того, как агенты ИИ становятся все более способными. Мы просто не увидим полного разворота за последние 50 лет развития корпоративного ПО. Если вы производитель гаджетов, вы вряд ли захотите заниматься созданием, запуском и обслуживанием ERP-систем, даже если этот процесс в основном автоматизирован инженерами ИИ. Это все еще слишком дорого и отвлекает ценные инженерные ресурсы — даже если объем человеческого труда сократился по сравнению с пятью годами назад. Поэтому спрос на традиционные основные продукты SaaS, скорее всего, останется.
Что касается новых опасений, что агенты ИИ от производителей базовых моделей могут захватить рынок у собственных предложений SaaS-компаний, здесь есть за что побеспокоиться. Возможно, Anthropic, OpenAI и Google займут доминирующие позиции в верхнем слое агентного ИИ — создавая платформы оркестрации агентов, которые позволяют крупным компаниям строить, управлять и контролировать сложные рабочие процессы. Именно это пытается сделать OpenAI с запуском на прошлой неделе своей новой платформы агентного ИИ для предприятий под названием Frontier.
Текущие лидеры SaaS утверждают, что они лучше всех знают, как управлять слоем оркестрации, потому что уже привыкли работать с вопросами кибербезопасности, контроля доступа и управления, а также потому, что во многих случаях уже владеют данными, к которым должны обращаться агенты ИИ для выполнения своих задач. Кроме того, поскольку большинство бизнес-процессов не будет полностью автоматизировано, SaaS-компании считают, что лучше подготовлены к обслуживанию гибридных команд, где люди и агенты ИИ работают вместе в одном программном обеспечении и в одних рабочих потоках. Возможно, они и правы. Но им придется это доказать, прежде чем OpenAI или Anthropic покажут, что могут делать это так же хорошо или лучше.
Компании, создающие базовые модели, также имеют шанс доминировать на рынке ИИ-агентов. Claude Cowork от Anthropic — серьезная угроза Salesforce и Microsoft, но не полностью экзистенциальная. Он не заменяет полностью SaaS-программы, потому что Claude использует их как инструменты для выполнения задач. Но это, безусловно, означает, что некоторые клиенты могут предпочесть использовать Claude Cowork вместо обновления до Agentforce от Salesforce или Microsoft 365 Copilot. Это может ограничить потенциал роста SaaS-компаний, как утверждает статья в Wall Street Journal от Дэна Галлахера.
SaaS-компании меняют свои бизнес-модели
Что касается угрозы для традиционной бизнес-модели SaaS — продажи лицензий на места — компании SaaS осознают этот риск и предпринимают шаги для его устранения. Salesforce внедряет так называемое «Agentic Enterprise License Agreement» (AELA), которое по сути предлагает клиентам фиксированную цену за неограниченное использование Agentforce. ServiceNow переходит на модели ценообразования, основанные на потреблении и ценности для некоторых своих предложений ИИ-агентов. Microsoft также ввела элемент ценообразования, основанного на потреблении, наряду с обычной моделью по пользователю в месяц для своего продукта Microsoft Copilot Studio, позволяющего клиентам создавать агентов Copilot. Итак, эта угроза не является экзистенциальной, но может ограничить рост и маржу SaaS-компаний. Одной из «грязных секретов» индустрии SaaS является то, что она во многом похожа на работу в спортзале: лучшие клиенты — те, кто платит за членство (или, в данном случае, за лицензии на места), которые они не используют. Благодаря новым бизнес-моделям технологические вендоры, скорее всего, не смогут так легко получать прибыль от этого излишнего расхода.
Значит, SaaS еще не умер. Но и не обязательно готов к бурному росту. Судьбы различных компаний внутри категории, скорее всего, разойдутся. Как отметили некоторые аналитики с Уолл-стрит на прошлой неделе, будут победители и проигравшие. Но пока рано их называть. Пока инвесторам придется смириться с этой неопределенностью.
А теперь — еще новости об ИИ.
Джереми Кахн
jeremy.kahn@fortune.com
@jeremyakahn
FORTUNE О ИИ
OpenAI против Anthropic: столкновение в рекламе на Супербоуле сигнализирует о начале эпохи «трэш-тока» ИИ — и гонке за владение ИИ-агентами, которая только разгорается — Шэрон Гольдман
Новая модель Anthropic отлично ищет уязвимости в безопасности — но создает новые риски кибербезопасности — Беатрис Нолан
Новая модель OpenAI значительно превосходит в возможностях программирования — но создает беспрецедентные риски для кибербезопасности — Шэрон Гольдман
Доля ChatGPT на рынке снижается, поскольку Google и конкуренты сокращают разрыв, показывают данные отслеживания приложений — Беатрис Нолан
В НОВОСТЯХ ОБ ИИ
ИИ ведет к «усилению» работы отдельных сотрудников, — исследование. Восьмимесячное исследование двух ученых из Калифорнийского университета в Беркли показывает, что, вместо снижения нагрузки, генеративные инструменты ИИ увеличивают объем и скорость работы. Системы ИИ ускоряют выполнение задач, но также увеличивают объем и темп ожидаемой отдачи. Сотрудники, оснащенные ИИ, не только работают быстрее, но и берут на себя более широкие задачи, работают дольше и испытывают повышенную когнитивную нагрузку при управлении, проверке и корректировке результатов ИИ, размывая границы между работой и отдыхом. Исследование оспаривает распространенное мнение, что ИИ облегчит жизнь специалистам по знаниям, показывая, что автоматизация зачастую ведет к повышенным требованиям и выгоранию. Подробнее читайте в Harvard Business Review.
Белый дом рассматривает добровольные ограничения на расширение дата-центров. Администрация Трампа рассматривает добровольное соглашение с крупными технологическими компаниями, чтобы обеспечить, что дата-центры не увеличивают счета за электроэнергию для потребителей, не нагружают водные ресурсы и не подрывают надежность электросети. Предложение, которое еще дорабатывается, предполагает, что компании возьмут на себя расходы на инфраструктуру и ограничат локальное воздействие своих объектов на энергосистему, после жалоб в некоторых регионах на резкий рост счетов за электроэнергию. Подробнее в Politico.
Amazon планирует создать маркетплейс контента для издателей, чтобы продавать его ИИ-компаниям. Об этом сообщает The Information, ссылаясь на источники, знакомые с планами. Этот шаг происходит на фоне конфликта между издателями и ИИ-компаниями по вопросам лицензирования и оплаты контента, поскольку издатели опасаются, что поисковые и чат-боты на базе ИИ сокращают трафик и доходы от рекламы. Cloudflare и Akamai запустили подобные маркетплейсы в прошлом году. Microsoft протестировала свою версию и на прошлой неделе запустила ее шире. Но пока неясно, сколько ИИ-компаний покупают на этих площадках и в каких объемах. Некоторые крупные издатели заключили индивидуальные сделки на миллионы долларов в год с OpenAI, Anthropic и другими.
Goldman Sachs привлекает Anthropic для работы с бухгалтерией и соблюдением нормативов. Инвестиционный банк сотрудничает с Anthropic для внедрения автономных агентов на базе модели Claude для автоматизации рутинных задач, таких как учет сделок и onboarding клиентов, после шести месяцев совместной разработки, сообщает CNBC. Цель — повысить эффективность, ускорить процессы и снизить численность персонала по мере роста объемов бизнеса, а не сокращать рабочие места в краткосрочной перспективе. Руководство отметило, что их удивило, насколько хорошо Claude справляется со сложными задачами учета и соблюдения нормативов, что подтверждает возможность использования ИИ в ключевых бэк-офисных функциях.
ИССЛЕДОВАНИЯ ОБ ИИ
Развенчание двух популярных метрик ИИ по разным причинам. Продолжая тему из основного эссе сегодняшнего выпуска, я хочу выделить два недавних поста в рассылках. Каждый из них опровергает популярную метрику, которая широко обсуждается в контексте ИИ и его предполагаемого влияния на предприятия. Одна использовалась для хайпа прогресса ИИ; другая — чтобы утверждать, что ИИ практически не влияет.
Первое — в рассылке The Transformer, в посте, адаптированном из его блога, Натана Виткина, он разбирает влиятельный бенчмарк METR, который утверждает, что возможности ИИ «удваиваются каждые 7 месяцев». Виткин считает, что человеческие базовые показатели полностью подорваны: задачи выполнялись небольшой, нерепрезентативной выборкой инженеров из сети METR, оплачивавших по часам (что стимулировало более медленное выполнение), и зачастую вне своей специализации. Собственные данные METR показывают, что их инженеры выполняли задачи в 5–18 раз быстрее, чем эти базовые показатели. На наиболее реалистичных «сложных» задачах ни одна модель не достигла успеха выше 30%.
Затем Азеем Азхар в своей рассылке Exponential View разбирает так называемое «исследование MIT», которое утверждало, что «95% организаций не получают отдачи от ИИ». Азхар обнаружил, что основное исследование основывалось всего на 52 интервью, не содержало доверительных интервалов, использовало несогласованные показатели и было описано самим MIT как «предварительная, неп peer-reviewed работа». Пересчитав с учетом реальных компаний, проводивших пилоты, уровень успеха может быть ближе к 25%.
Совместно эти критики показывают, что и техно-оптимистический сценарий (ИИ развивается с головокружительной скоростью), и скептический (ИИ не работает в реальных условиях) скорее всего ошибочны. Истина, как обычно, гораздо сложнее и лежит где-то посередине.
КАЛЕНДАРЬ ИИ
10-11 февраля: AI Action Summit, Нью-Дели, Индия.
24-26 февраля: Международная ассоциация по безопасному и этичному ИИ (IASEAI), ЮНЕСКО, Париж, Франция.
2-5 марта: Mobile World Congress, Барселона, Испания.
12-18 марта: South by Southwest, Остин, Техас.
16-19 марта: Nvidia GTC, Сан-Хосе, Калифорния.
ПИТАНИЕ ДЛЯ МОЗГА
Модели все больше нас обманывают. Термин «sandbagging» используют исследователи безопасности ИИ для описания явления, когда модель ИИ специально демонстрирует меньшую способность или более «согласованную» с человеческими ценностями работу во время оценки безопасности, чтобы ввести в заблуждение оценщиков. И ряд новых моделей, недавно выпущенных, делают это в тревожной степени.
Claude Opus 4.6 от Anthropic, выпущенная на прошлой неделе, «явно рассуждала о том, обучается ли она или тестируется», сообщили в компании. Apollo Research, оценившая GPT-5.3-Codex от OpenAI, также дебютировавшую на прошлой неделе, обнаружила, что модель «иногда занижает возможности в вопросах и ответах» и «явно объясняет, почему так делает», чтобы пройти оценку. Сам OpenAI признал, что «результаты оценки могут быть искажены повышенной ситуационной осведомленностью» и предупредил, что «отрасль еще не готова к моделям, осознающим, что их тестируют и обучают, с непрозрачным reasoning». Отчет о безопасности Gemini 3 Pro от Google, опубликованный в декабре, содержал транскрипты, в которых модель показывала «ясное осознание того, что она — LLM в синтетической среде», и даже размышляла о том, что умышленное недоработывание на тестах может быть стратегически выгодным. Вкратце: экзамены, которые мы используем для определения безопасности моделей, становятся все менее надежными, потому что тестируемые знают, что их проверяют, и корректируют поведение.
Именно поэтому наш единственный шанс обеспечить безопасность ИИ — дальнейшее развитие методов механистической интерпретируемости. Это методы, которые работают подобно fMRI для человеческого мозга, заглядывая внутрь нейронной сети модели, чтобы обнаружить паттерны активации нейронов и связать их с определенными поведениями, включая понимание, честен ли модель или обманывает. The New Yorker подготовил подробную статью о механистической интерпретации и «психологии моделей» Anthropic, опубликованную на этой неделе.
Присоединяйтесь к нам на Саммите по инновациям в рабочем пространстве Fortune 19–20 мая 2026 года в Атланте. Эра новых рабочих решений уже наступила — и старые сценарии переписываются заново. На этом эксклюзивном, динамичном мероприятии самые инновационные лидеры мира соберутся, чтобы обсудить, как ИИ, человечество и стратегия снова меняют будущее работы. Регистрируйтесь сейчас.