Добро пожаловать в Eye on AI с репортером Шэрон Голдман. В этом выпуске: дикая сторона OpenClaw… новая суперПАК Anthropic на 20 миллионов долларов против OpenAI… OpenAI выпускает свою первую модель, предназначенную для сверхбыстрой генерации… Anthropic компенсирует рост цен на электроэнергию для своих дата-центров ИИ… Isomorphic Labs заявляет, что открыла новую биологическую границу за пределами AlphaFold.
Рекомендуемое видео
OpenClaw за последние несколько недель показал, насколько безрассудными могут стать агенты ИИ — и при этом привлек преданных последователей.
Бесплатный, открытый автономный агент искусственного интеллекта, разработанный Питером Штайнбергером и изначально известный как ClawdBot, берет чат-ботов, которых мы знаем и любим — таких как ChatGPT и Claude — и наделяет их инструментами и автономией для прямого взаимодействия с вашим компьютером и другими устройствами по всему интернету. Представьте отправку электронных писем, чтение ваших сообщений, заказ билетов на концерт, бронирование ресторанов и многое другое — предположительно, пока вы отдыхаете и едите конфеты.
Проблема с предоставлением OpenClaw исключительных полномочий для выполнения крутых вещей? Неудивительно, что это также дает ему множество возможностей делать то, чего не следует, включая утечку данных, выполнение непреднамеренных команд или тихое захват системы злоумышленниками через вредоносное ПО или так называемые «prompt injection» атаки (когда злоумышленник вставляет вредоносные инструкции в данные, которые может использовать агент ИИ).
Два эксперта по кибербезопасности, с которыми я общался на этой неделе, отмечают, что волнение вокруг OpenClaw связано с тем, что у него практически нет ограничений, что дает пользователям широкие возможности для настройки по своему усмотрению.
«Единственное правило — это отсутствие правил», — сказал Бен Серри, соучредитель и технический директор Zafran Security, специализирующейся на управлении угрозами для корпоративных клиентов. «Это часть игры». Но эта игра может превратиться в кошмар с точки зрения безопасности, поскольку правила и границы — это основа защиты от хакеров и утечек.
Классические опасения по безопасности
Эти опасения довольно типичны, говорит Колин Ши-Блимейр, научный сотрудник Центра безопасности и новых технологий Джорджтаунского университета (CSET), где он занимается проектом CyberAI. Неправильная настройка разрешений — кто или что может делать что — означает, что люди могут случайно дать OpenClaw больше полномочий, чем они предполагают, и злоумышленники могут этим воспользоваться.
Например, в OpenClaw большая часть риска связана с так называемыми «навыками», которые по сути являются приложениями или плагинами, которые агент ИИ может использовать для выполнения действий — например, доступ к файлам, просмотр веб-страниц или запуск команд. Разница в том, что, в отличие от обычного приложения, OpenClaw сам решает, когда использовать эти навыки и как их связывать, что может быстро привести к серьезным последствиям из-за небольшой ошибки в разрешениях.
«Представьте, что он использует его для доступа к странице бронирования ресторана, а также имеет доступ к вашему календарю с личной информацией», — сказал он. «Или что, если это вредоносное ПО и оно найдет неправильную страницу и установит вирус?»
OpenClaw действительно содержит разделы по безопасности в документации и старается держать пользователей в курсе и бдительными, отметил Ши-Блимейр. Но вопросы безопасности остаются сложными техническими проблемами, которые большинство обычных пользователей вряд ли смогут полностью понять. И хотя разработчики OpenClaw прилагают усилия к исправлению уязвимостей, они не могут легко решить основную проблему — возможность агента действовать самостоятельно, что и делает систему такой привлекательной.
«Это основное противоречие в таких системах», — сказал он. «Чем больше доступа вы им предоставляете, тем более увлекательными и интересными они становятся — но и тем опаснее».
Корпоративные компании будут медленно внедрять
Серри из Zafran Security признал, что вряд ли удастся полностью остановить любопытство пользователей к системам вроде OpenClaw, хотя он подчеркнул, что корпоративные компании будут гораздо медленнее принимать такую неконтролируемую и небезопасную систему. Для обычного пользователя, по его словам, стоит относиться к экспериментам как к работе в химической лаборатории с очень взрывоопасным материалом.
Ши-Блимейр отметил, что хорошо, что OpenClaw сначала появился на уровне хобби. «Мы узнаем много о экосистеме, прежде чем кто-либо попробует его на уровне предприятий», — сказал он. «ИИ-системы могут провалиться так, как мы даже представить не можем», — объяснил он. «[OpenClaw] может дать нам много информации о том, почему разные крупные языковые модели ведут себя так или иначе, и о новых проблемах безопасности».
Хотя сегодня OpenClaw — это скорее эксперимент для энтузиастов, эксперты по безопасности видят в нем предварительный пример тех автономных систем, которые в будущем компании будут вынуждены внедрять.
Пока что, если только кто-то не хочет стать объектом исследования в области безопасности, обычному пользователю лучше держаться подальше от OpenClaw, сказал Ши-Блимейр. Иначе не удивляйтесь, если ваш личный AI-ассистент забредет в очень опасные территории.
Генеральный директор Capgemini предупреждает: вы, возможно, неправильно понимаете ИИ — автор Камал Ахмед
Лидер Google по ИИ, удостоенный Нобелевской премии, предвещает «ренессанс» — после 10- или 15-летнего кризиса — автор Ник Лихтенберг
X-odus: половина основателей xAI покинула компанию Илона Маска, что может усложнить его планы по первичному публичному размещению SpaceX — автор Беатрис Нолан
OpenAI оспаривает заявление регулятора о нарушении нового закона Калифорнии о безопасности ИИ с помощью последней модели — автор Беатрис Нолан
НОВОСТИ ИЗ МИРА ИИ
Новая суперПАК Anthropic на 20 миллионов долларов против OpenAI. Согласно The New York Times, Anthropic выделила 20 миллионов долларов на работу суперПАКа, предназначенного для поддержки кандидатов, выступающих за усиление безопасности и регулирования ИИ, что создает прямое противостояние перед промежуточными выборами. Финансирование будет осуществляться через некоммерческую организацию Public First Action и связанные с ней PAC, в противовес Leading the Future — суперПАКу, поддерживаемому в основном президентом и соучредителем OpenAI Грегом Брокманом и венчурной компанией Andreessen Horowitz. Хотя Anthropic не назвала прямо OpenAI, она предупредила, что «огромные ресурсы» направляются на противодействие усилиям по обеспечению безопасности ИИ, что подчеркивает углубляющийся разлом внутри индустрии по поводу того, насколько строго должны регулироваться мощные модели — и сигнализирует, что борьба за управление ИИ уже идет не только в лабораториях и на совещаниях, но и на выборах.
Муссафа Сулейман планирует «самодостаточность» ИИ, пока Microsoft ослабляет связи с OpenAI. В газете Financial Times сообщили, что Microsoft движется к тому, что его руководитель по ИИ Муссафа Сулейман называет «истинной самодостаточностью» в области искусственного интеллекта, ускоряя создание собственных фундаментальных моделей и сокращая долгосрочную зависимость от OpenAI, несмотря на то, что остается одним из крупнейших инвесторов стартапа. В интервью он отметил, что этот сдвиг последовал за реструктуризацией отношений Microsoft с OpenAI в октябре прошлого года, которая сохранила доступ к самым передовым моделям OpenAI до 2032 года, а также дала создателю ChatGPT больше свободы искать новых инвесторов и партнеров — что потенциально превращает его в конкурента. Сейчас Microsoft активно инвестирует в вычислительные мощности, дата-пайплайны и элитные команды исследователей ИИ, планируя запустить собственные модели уже в этом году, ориентированные на автоматизацию офисной работы и расширение доли рынка предприятий с помощью так называемого «профессионального уровня AGI».
OpenAI выпускает свою первую модель, предназначенную для сверхбыстрой генерации. OpenAI представила предварительный результат исследования GPT-5.3-Codex-Spark — первый конкретный продукт их партнерства с Cerebras, использующий чипмейкерское AI-оборудование wafer-scale для обеспечения сверхнизкой задержки и реального времени при кодировании в Codex. Модель меньшего размера, упрощенная версия GPT-5.3-Codex, оптимизирована для скорости, а не максимальной мощности, и генерирует ответы в 15 раз быстрее, что позволяет разработчикам вносить целенаправленные правки, менять логику и взаимодействовать без долгих ожиданий. Изначально она доступна как исследовательский предварительный просмотр для пользователей ChatGPT Pro и небольшого числа API-партнеров. Этот релиз свидетельствует о растущем внимании OpenAI к скорости взаимодействия, поскольку агенты ИИ берут на себя более автономные и долгосрочные задачи — ранний пример того, что может дать ускорение inference.
Anthropic компенсирует рост цен на электроэнергию для своих дата-центров ИИ. После аналогичного заявления OpenAI в прошлом месяце, Anthropic объявила вчера, что при расширении своих дата-центров ИИ в США она возьмет на себя ответственность за любые повышения стоимости электроэнергии, которые иначе были бы переложены на потребителей, пообещав оплачивать все расходы на подключение к электросетям и модернизацию, запускать новые источники энергии для соответствия спросу и сотрудничать с коммунальными службами и экспертами для оценки и покрытия возможных ценовых эффектов; также планируется инвестировать в технологии снижения потребления энергии и оптимизации электросетей, поддерживать местные сообщества вокруг своих объектов и выступать за более широкие политические реформы для ускорения и снижения стоимости развития энергетической инфраструктуры, утверждая, что строительство инфраструктуры ИИ не должно ложиться бременем на обычных потребителей.
Isomorphic Labs заявляет, что открыла новую биологическую границу за пределами AlphaFold. Компания Isomorphic Labs, связанная с Alphabet и DeepMind, заявила, что их новая система Design Engine представляет собой значительный прорыв в вычислительной медицине, объединяя несколько моделей ИИ в единый движок, который может предсказывать взаимодействия биологических молекул с беспрецедентной точностью. В блоге говорится, что она более чем вдвое превзошла предыдущие показатели по ключевым бенчмаркам и обошла традиционные физические методы в задачах предсказания структур белок-лигандов и оценки сродства связывания — возможности, которые, по мнению компании, могут значительно ускорить разработку и оптимизацию новых лекарственных кандидатов. Эта система основана на успехе AlphaFold 3, продвинутой модели ИИ, выпущенной в 2024 году, которая предсказывает 3D-структуры и взаимодействия всех молекул жизни, включая белки, ДНК и РНК. Но компания утверждает, что идет дальше, выявляя новые карманы для связывания, обобщая структуры за пределами обучающих данных и интегрируя эти предсказания в масштабируемую платформу, которая должна сократить разрыв между структурной биологией и реальными разработками лекарств, потенциально меняя подход фармацевтических исследований к сложным мишеням и расширяя возможности в области биологических препаратов.
ЧИСЛА ИЗ МИРА ИИ
77%
Столько специалистов по безопасности заявляют, что чувствуют себя хотя бы отчасти комфортно при разрешении автономным системам ИИ действовать без человеческого контроля, хотя и остаются осторожными, согласно новому опросу 1200 профессионалов в области безопасности, проведенному компанией Ivanti, глобальным поставщиком корпоративных ИТ и систем безопасности. Кроме того, в отчете отмечается, что внедрение агентных ИИ — приоритет для 87% команд безопасности.
Однако главный специалист по безопасности Ivanti, Дэниел Спайсер, считает, что команды безопасности не должны так легко соглашаться с идеей развертывания автономных ИИ. Несмотря на оптимизм защитников относительно потенциала ИИ в кибербезопасности, результаты показывают, что компании все дальше отстают в подготовке к защите от различных угроз.
«Это то, что я называю «дефицитом готовности к кибербезопасности», — написал он в блоге. — Постоянный, ежегодно расширяющийся разрыв в способности организации защищать свои данные, людей и сети от развивающихся технологий».
КАЛЕНДАРЬ ИИ
10-11 февраля: Саммит по действиям в области ИИ, Нью-Дели, Индия.
24-26 февраля: Международная ассоциация безопасного и этичного ИИ (IASEAI), ЮНЕСКО, Париж, Франция.
2-5 марта: Mobile World Congress, Барселона, Испания.
16-19 марта: Nvidia GTC, Сан-Хосе, Калифорния.
6-9 апреля: HumanX, Сан-Франциско.
**Присоединяйтесь к нам на Саммите по инновациям в рабочем пространстве Fortune **19–20 мая 2026 года, Атланта. Наступает новая эпоха инноваций в рабочем пространстве — и старые правила переписываются. На этом эксклюзивном, насыщенном событиями мероприятии соберутся самые инновационные лидеры мира, чтобы обсудить, как ИИ, человечество и стратегия вновь меняют будущее работы. Регистрируйтесь сейчас.
Посмотреть Оригинал
На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
OpenClaw — плохой парень среди AI-агентов. Вот почему эксперты по безопасности предупреждают вас быть осторожными
Добро пожаловать в Eye on AI с репортером Шэрон Голдман. В этом выпуске: дикая сторона OpenClaw… новая суперПАК Anthropic на 20 миллионов долларов против OpenAI… OpenAI выпускает свою первую модель, предназначенную для сверхбыстрой генерации… Anthropic компенсирует рост цен на электроэнергию для своих дата-центров ИИ… Isomorphic Labs заявляет, что открыла новую биологическую границу за пределами AlphaFold.
Рекомендуемое видео
OpenClaw за последние несколько недель показал, насколько безрассудными могут стать агенты ИИ — и при этом привлек преданных последователей.
Бесплатный, открытый автономный агент искусственного интеллекта, разработанный Питером Штайнбергером и изначально известный как ClawdBot, берет чат-ботов, которых мы знаем и любим — таких как ChatGPT и Claude — и наделяет их инструментами и автономией для прямого взаимодействия с вашим компьютером и другими устройствами по всему интернету. Представьте отправку электронных писем, чтение ваших сообщений, заказ билетов на концерт, бронирование ресторанов и многое другое — предположительно, пока вы отдыхаете и едите конфеты.
Проблема с предоставлением OpenClaw исключительных полномочий для выполнения крутых вещей? Неудивительно, что это также дает ему множество возможностей делать то, чего не следует, включая утечку данных, выполнение непреднамеренных команд или тихое захват системы злоумышленниками через вредоносное ПО или так называемые «prompt injection» атаки (когда злоумышленник вставляет вредоносные инструкции в данные, которые может использовать агент ИИ).
Два эксперта по кибербезопасности, с которыми я общался на этой неделе, отмечают, что волнение вокруг OpenClaw связано с тем, что у него практически нет ограничений, что дает пользователям широкие возможности для настройки по своему усмотрению.
«Единственное правило — это отсутствие правил», — сказал Бен Серри, соучредитель и технический директор Zafran Security, специализирующейся на управлении угрозами для корпоративных клиентов. «Это часть игры». Но эта игра может превратиться в кошмар с точки зрения безопасности, поскольку правила и границы — это основа защиты от хакеров и утечек.
Классические опасения по безопасности
Эти опасения довольно типичны, говорит Колин Ши-Блимейр, научный сотрудник Центра безопасности и новых технологий Джорджтаунского университета (CSET), где он занимается проектом CyberAI. Неправильная настройка разрешений — кто или что может делать что — означает, что люди могут случайно дать OpenClaw больше полномочий, чем они предполагают, и злоумышленники могут этим воспользоваться.
Например, в OpenClaw большая часть риска связана с так называемыми «навыками», которые по сути являются приложениями или плагинами, которые агент ИИ может использовать для выполнения действий — например, доступ к файлам, просмотр веб-страниц или запуск команд. Разница в том, что, в отличие от обычного приложения, OpenClaw сам решает, когда использовать эти навыки и как их связывать, что может быстро привести к серьезным последствиям из-за небольшой ошибки в разрешениях.
«Представьте, что он использует его для доступа к странице бронирования ресторана, а также имеет доступ к вашему календарю с личной информацией», — сказал он. «Или что, если это вредоносное ПО и оно найдет неправильную страницу и установит вирус?»
OpenClaw действительно содержит разделы по безопасности в документации и старается держать пользователей в курсе и бдительными, отметил Ши-Блимейр. Но вопросы безопасности остаются сложными техническими проблемами, которые большинство обычных пользователей вряд ли смогут полностью понять. И хотя разработчики OpenClaw прилагают усилия к исправлению уязвимостей, они не могут легко решить основную проблему — возможность агента действовать самостоятельно, что и делает систему такой привлекательной.
«Это основное противоречие в таких системах», — сказал он. «Чем больше доступа вы им предоставляете, тем более увлекательными и интересными они становятся — но и тем опаснее».
Корпоративные компании будут медленно внедрять
Серри из Zafran Security признал, что вряд ли удастся полностью остановить любопытство пользователей к системам вроде OpenClaw, хотя он подчеркнул, что корпоративные компании будут гораздо медленнее принимать такую неконтролируемую и небезопасную систему. Для обычного пользователя, по его словам, стоит относиться к экспериментам как к работе в химической лаборатории с очень взрывоопасным материалом.
Ши-Блимейр отметил, что хорошо, что OpenClaw сначала появился на уровне хобби. «Мы узнаем много о экосистеме, прежде чем кто-либо попробует его на уровне предприятий», — сказал он. «ИИ-системы могут провалиться так, как мы даже представить не можем», — объяснил он. «[OpenClaw] может дать нам много информации о том, почему разные крупные языковые модели ведут себя так или иначе, и о новых проблемах безопасности».
Хотя сегодня OpenClaw — это скорее эксперимент для энтузиастов, эксперты по безопасности видят в нем предварительный пример тех автономных систем, которые в будущем компании будут вынуждены внедрять.
Пока что, если только кто-то не хочет стать объектом исследования в области безопасности, обычному пользователю лучше держаться подальше от OpenClaw, сказал Ши-Блимейр. Иначе не удивляйтесь, если ваш личный AI-ассистент забредет в очень опасные территории.
А теперь — еще новости об ИИ.
Шэрон Голдман
sharon.goldman@fortune.com
@sharongoldman
FORTUNE ОТ ИИ
Генеральный директор Capgemini предупреждает: вы, возможно, неправильно понимаете ИИ — автор Камал Ахмед
Лидер Google по ИИ, удостоенный Нобелевской премии, предвещает «ренессанс» — после 10- или 15-летнего кризиса — автор Ник Лихтенберг
X-odus: половина основателей xAI покинула компанию Илона Маска, что может усложнить его планы по первичному публичному размещению SpaceX — автор Беатрис Нолан
OpenAI оспаривает заявление регулятора о нарушении нового закона Калифорнии о безопасности ИИ с помощью последней модели — автор Беатрис Нолан
НОВОСТИ ИЗ МИРА ИИ
Новая суперПАК Anthropic на 20 миллионов долларов против OpenAI. Согласно The New York Times, Anthropic выделила 20 миллионов долларов на работу суперПАКа, предназначенного для поддержки кандидатов, выступающих за усиление безопасности и регулирования ИИ, что создает прямое противостояние перед промежуточными выборами. Финансирование будет осуществляться через некоммерческую организацию Public First Action и связанные с ней PAC, в противовес Leading the Future — суперПАКу, поддерживаемому в основном президентом и соучредителем OpenAI Грегом Брокманом и венчурной компанией Andreessen Horowitz. Хотя Anthropic не назвала прямо OpenAI, она предупредила, что «огромные ресурсы» направляются на противодействие усилиям по обеспечению безопасности ИИ, что подчеркивает углубляющийся разлом внутри индустрии по поводу того, насколько строго должны регулироваться мощные модели — и сигнализирует, что борьба за управление ИИ уже идет не только в лабораториях и на совещаниях, но и на выборах.
Муссафа Сулейман планирует «самодостаточность» ИИ, пока Microsoft ослабляет связи с OpenAI. В газете Financial Times сообщили, что Microsoft движется к тому, что его руководитель по ИИ Муссафа Сулейман называет «истинной самодостаточностью» в области искусственного интеллекта, ускоряя создание собственных фундаментальных моделей и сокращая долгосрочную зависимость от OpenAI, несмотря на то, что остается одним из крупнейших инвесторов стартапа. В интервью он отметил, что этот сдвиг последовал за реструктуризацией отношений Microsoft с OpenAI в октябре прошлого года, которая сохранила доступ к самым передовым моделям OpenAI до 2032 года, а также дала создателю ChatGPT больше свободы искать новых инвесторов и партнеров — что потенциально превращает его в конкурента. Сейчас Microsoft активно инвестирует в вычислительные мощности, дата-пайплайны и элитные команды исследователей ИИ, планируя запустить собственные модели уже в этом году, ориентированные на автоматизацию офисной работы и расширение доли рынка предприятий с помощью так называемого «профессионального уровня AGI».
OpenAI выпускает свою первую модель, предназначенную для сверхбыстрой генерации. OpenAI представила предварительный результат исследования GPT-5.3-Codex-Spark — первый конкретный продукт их партнерства с Cerebras, использующий чипмейкерское AI-оборудование wafer-scale для обеспечения сверхнизкой задержки и реального времени при кодировании в Codex. Модель меньшего размера, упрощенная версия GPT-5.3-Codex, оптимизирована для скорости, а не максимальной мощности, и генерирует ответы в 15 раз быстрее, что позволяет разработчикам вносить целенаправленные правки, менять логику и взаимодействовать без долгих ожиданий. Изначально она доступна как исследовательский предварительный просмотр для пользователей ChatGPT Pro и небольшого числа API-партнеров. Этот релиз свидетельствует о растущем внимании OpenAI к скорости взаимодействия, поскольку агенты ИИ берут на себя более автономные и долгосрочные задачи — ранний пример того, что может дать ускорение inference.
Anthropic компенсирует рост цен на электроэнергию для своих дата-центров ИИ. После аналогичного заявления OpenAI в прошлом месяце, Anthropic объявила вчера, что при расширении своих дата-центров ИИ в США она возьмет на себя ответственность за любые повышения стоимости электроэнергии, которые иначе были бы переложены на потребителей, пообещав оплачивать все расходы на подключение к электросетям и модернизацию, запускать новые источники энергии для соответствия спросу и сотрудничать с коммунальными службами и экспертами для оценки и покрытия возможных ценовых эффектов; также планируется инвестировать в технологии снижения потребления энергии и оптимизации электросетей, поддерживать местные сообщества вокруг своих объектов и выступать за более широкие политические реформы для ускорения и снижения стоимости развития энергетической инфраструктуры, утверждая, что строительство инфраструктуры ИИ не должно ложиться бременем на обычных потребителей.
Isomorphic Labs заявляет, что открыла новую биологическую границу за пределами AlphaFold. Компания Isomorphic Labs, связанная с Alphabet и DeepMind, заявила, что их новая система Design Engine представляет собой значительный прорыв в вычислительной медицине, объединяя несколько моделей ИИ в единый движок, который может предсказывать взаимодействия биологических молекул с беспрецедентной точностью. В блоге говорится, что она более чем вдвое превзошла предыдущие показатели по ключевым бенчмаркам и обошла традиционные физические методы в задачах предсказания структур белок-лигандов и оценки сродства связывания — возможности, которые, по мнению компании, могут значительно ускорить разработку и оптимизацию новых лекарственных кандидатов. Эта система основана на успехе AlphaFold 3, продвинутой модели ИИ, выпущенной в 2024 году, которая предсказывает 3D-структуры и взаимодействия всех молекул жизни, включая белки, ДНК и РНК. Но компания утверждает, что идет дальше, выявляя новые карманы для связывания, обобщая структуры за пределами обучающих данных и интегрируя эти предсказания в масштабируемую платформу, которая должна сократить разрыв между структурной биологией и реальными разработками лекарств, потенциально меняя подход фармацевтических исследований к сложным мишеням и расширяя возможности в области биологических препаратов.
ЧИСЛА ИЗ МИРА ИИ
77%
Столько специалистов по безопасности заявляют, что чувствуют себя хотя бы отчасти комфортно при разрешении автономным системам ИИ действовать без человеческого контроля, хотя и остаются осторожными, согласно новому опросу 1200 профессионалов в области безопасности, проведенному компанией Ivanti, глобальным поставщиком корпоративных ИТ и систем безопасности. Кроме того, в отчете отмечается, что внедрение агентных ИИ — приоритет для 87% команд безопасности.
Однако главный специалист по безопасности Ivanti, Дэниел Спайсер, считает, что команды безопасности не должны так легко соглашаться с идеей развертывания автономных ИИ. Несмотря на оптимизм защитников относительно потенциала ИИ в кибербезопасности, результаты показывают, что компании все дальше отстают в подготовке к защите от различных угроз.
«Это то, что я называю «дефицитом готовности к кибербезопасности», — написал он в блоге. — Постоянный, ежегодно расширяющийся разрыв в способности организации защищать свои данные, людей и сети от развивающихся технологий».
КАЛЕНДАРЬ ИИ
10-11 февраля: Саммит по действиям в области ИИ, Нью-Дели, Индия.
24-26 февраля: Международная ассоциация безопасного и этичного ИИ (IASEAI), ЮНЕСКО, Париж, Франция.
2-5 марта: Mobile World Congress, Барселона, Испания.
16-19 марта: Nvidia GTC, Сан-Хосе, Калифорния.
6-9 апреля: HumanX, Сан-Франциско.
**Присоединяйтесь к нам на Саммите по инновациям в рабочем пространстве Fortune **19–20 мая 2026 года, Атланта. Наступает новая эпоха инноваций в рабочем пространстве — и старые правила переписываются. На этом эксклюзивном, насыщенном событиями мероприятии соберутся самые инновационные лидеры мира, чтобы обсудить, как ИИ, человечество и стратегия вновь меняют будущее работы. Регистрируйтесь сейчас.