Deepseek, Чжипу, MiniMax коллективно объявляют о новом запуске

robot
Генерация тезисов в процессе

Поступают важные новости о крупных моделях искусственного интеллекта в Китае.

11 февраля вечером официально подтвердили, что ранее занявшая первое место в рейтинге популярности на глобальной платформе моделирования OpenRouter загадочная модель «Pony Alpha» является новой моделью компании智谱 — GLM-5. В настоящее время новая модель уже доступна на платформе chat.z.ai.

6 февраля на платформе OpenRouter тихо запустили анонимную модель с кодовым названием «Pony Alpha». Благодаря сильным возможностям кодирования, сверхдлинному окну контекста и глубокой оптимизации для рабочих процессов интеллектуальных агентов, она быстро привлекла внимание сообщества разработчиков и резко выросла в популярности за рубежом.

Официальный сайт OpenRouter описывает Pony Alpha как «передовую базовую модель», которая демонстрирует отличные результаты в программировании, рабочих потоках интеллектуальных агентов, дедукции и ролевых играх, особо подчеркивая её «высокую точность вызова инструментов». Эта особенность дает ей значительные преимущества в сценариях применения AI Agent, позволяя разработчикам с помощью таких инструментов, как Claude Code, вызывать модель для разработки сложных проектов продолжительностью в несколько часов.

8 января智谱 официально вышла на Гонконгскую фондовую биржу. В день листинга главный ученый компании, профессор кафедры вычислительной техники Тяньцзиньского университета Танг Цзе, направил внутреннее письмо всему коллективу, в котором подтвердил скорое выпуск нового базового моделирования GLM-5 и объявил о полном возвращении к исследованиям базовых моделей с 2026 года. Также был создан передовой инновационный отдел X-Lab, сосредоточенный на архитектуре, обучающих парадигмах и постоянной эволюции.

Кроме того, DeepSeek также обновила свои модели. По сообщениям, несколько пользователей сообщили, что в веб-версии и приложениях DeepSeek проведены обновления, поддерживающие контекст длиной до 1 миллиона токенов. В прошлом году в августе была выпущена версия DeepSeekV3.1 с расширенным контекстом до 128K.

На сегодняшний день моделей, способных обрабатывать контекст до миллиона токенов, немного — такие как серия Gemini от Google и Claude Opus 4.6 от Anthropic, уже реализовали эту возможность.

Модель серии DeepSeek V позиционируется как базовая модель, стремящаяся к максимальной универсальности. В декабре 2024 года была выпущена модель V3, которая стала важной вехой для DeepSeek. Благодаря эффективной архитектуре MoE она заложила прочную основу для высокой производительности. После этого DeepSeek быстро развивалась, выпустив улучшенные версии V3.1 с усиленными возможностями дедукции и работы с агентами, а также в декабре 2025 года — последнюю официальную версию V3.2. Также был представлен специальный вариант V3.2-Speciale, предназначенный для решения сложных математических и академических задач.

Технологические СМИ The Information ранее сообщали, что DeepSeek планирует выпустить новое флагманское AI-решение DeepSeek V4 во время китайского Нового года в середине февраля, обладающее более мощными возможностями кодирования.

В начале этого года команда DeepSeek опубликовала две статьи, в которых раскрыла две инновационные архитектуры: mHC (манifold constrained hyperconnection) для оптимизации потока информации в глубоких трансформерах, делая обучение более стабильным и масштабируемым без увеличения вычислительных затрат; и Engram (модуль условной памяти), который отделяет статические знания от динамических вычислений, используя недорогую память DRAM для хранения фактических знаний и освобождая дорогостоящие HBM для дедукции, что значительно снижает затраты на длинный контекст.

В тот же день появились новости о MiniMax: модель M2.5 скоро будет официально запущена, и в настоящее время MiniMax M2.5 проходит внутреннее тестирование в зарубежных продуктах MiniMax Agent.

(Источник: Daily Economic News)

Посмотреть Оригинал
На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
  • Награда
  • комментарий
  • Репост
  • Поделиться
комментарий
0/400
Нет комментариев
  • Закрепить