Репортаж от Wedoany,23 апреля Xiaomi объявила о начале публичного тестирования своей серии AI-моделей Xiaomi MiMo-V2.5. Серия включает четыре AI-модели: MiMo-V2.5, MiMo-V2.5-Pro, MiMo-V2.5-TTS Series и MiMo-V2.5-ASR, охватывающие три основные модальности: текстовый диалог, синтез речи и распознавание речи. Флагманская модель MiMo-V2.5-Pro и универсальная модель MiMo-V2.5 будут открыты для всего мира. Разработчики могут получить доступ к API через открытую платформу MiMo или протестировать модели в MiMo Studio.
MiMo-V2.5-Pro позиционируется как «созданная для длительных и сложных Agent-задач», поддерживает длину контекста в 1 миллион токенов и по таким параметрам, как общие способности агента, сложная программная инженерия и долгосрочные задачи, сопоставима с ведущими мировыми AI-моделями, такими как Claude Opus 4.6 и GPT-5.4. Внутренние тесты показали, что в сочетании с фреймворком выполнения эта AI-модель может стабильно выполнять долгосрочные задачи с почти тысячей вызовов инструментов за один раз, значительно улучшив анализ сложных инструкций и логическую согласованность между шагами. В реальном случае проект курса «Принципы компиляторов» Пекинского университета требовал от студентов реализации полного компилятора SysY на Rust, что обычно занимало у студентов несколько недель. MiMo-V2.5-Pro завершила всю разработку всего за 4,3 часа, выполнив 672 вызова инструментов, и набрала 233 балла из 233 возможных в скрытом тестовом наборе. В другом случае, получив краткую инструкцию «построить веб-приложение видеоредактора», AI-модель предоставила работоспособное приложение с функциями многодорожечной временной шкалы, обрезки клипов, перекрестного затухания и микширования аудио, объем кода составил 8192 строки, на что потребовалось 1868 вызовов инструментов и 11,5 часов автономной работы.
MiMo-V2.5 фокусируется на нативных возможностях полноценного мультимодального агента, полностью поддерживает ввод изображений, аудио и видео, имеет более высокую скорость вывода и также поддерживает контекст в 1 миллион токенов. В основных оценках агентов, таких как Claw-Eval, общая производительность превосходит предыдущее поколение MiMo-V2-Pro, а стоимость API снижена примерно на 50%. Способности к кросс-модальным рассуждениям, пониманию видео и анализу диаграмм в оценках VideoMME, CharXiv, MMMU-Pro приближаются или даже превосходят ведущие проприетарные AI-модели отрасли. Что касается синтеза речи, V2.5-TTS Series основана на собственной архитектуре Audio Tokenizer и совместного моделирования речь-текст с несколькими кодбуками, прошла крупномасштабное предварительное обучение на миллиардах часов речевых данных и многомерное обучение с подкреплением, обладает высоко контролируемой способностью управления стилем речи на нескольких уровнях детализации.
Оптимизация эффективности токенов — еще одна ключевая особенность этого обновления. При одинаковом балле ClawEval MiMo-V2.5-Pro экономит 42% потребления токенов по сравнению с Kimi K2.6, а MiMo-V2.5 экономит 50% токенов по сравнению с Muse Spark. Схема ценообразования Token Plan также была скорректирована: отменен прежний метод расчета 1 Token = 4 Credits, больше не различается множитель Credit для окон контекста 256K и 1M; добавлены новые режимы подписки с ежемесячной и годовой оплатой. С 00:00 до 08:00 по пекинскому времени ежедневно скорость потребления Credits для всех AI-моделей дополнительно снижается на 20% от базовой ставки. Token Plan предлагает четыре уровня ежемесячных пакетов: пакет Lite за 39 юаней/месяц предоставляет 60 миллионов Credits, а самый высокий уровень за 659 юаней/месяц предоставляет 1,6 миллиарда Credits.
Ранее на форуме Zhongguancun 2026 года руководитель отдела больших моделей Xiaomi Лу Фули заявила, что первый полноценный AI-продукт команды, созданный для эпохи агентов, из-за слишком быстрой скорости технологических итераций был выпущен скорее как «тихая засада», и подчеркнула, что открытый исходный код AI-моделей должен соответствовать условию «достаточно стабилен и заслуживает открытия», чтобы обеспечить качественный опыт разработчиков. Руководитель также сообщила, что зрелость фреймворков, таких как OpenClaw, повысила потолок для некоторых моделей, приближающихся к проприетарным AI-моделям, и способности агента стали ключевым критерием оценки практической полезности больших моделей. Xiaomi впервые открыла исходный код оптимизированной для вывода AI-модели Xiaomi MiMo в апреле 2025 года, в декабре того же года выпустила и открыла исходный код обновленной версии MiMo-V2-Flash, а в марте 2026 года представила флагманскую базовую AI-модель MiMo-V2-Pro для эпохи интеллектуальных агентов. Выпуск серии V2.5 продолжает накопление технологий и продуктовый ритм Xiaomi в области открытых больших моделей агентов.
Данный материал скомпилирован платформой Wedoany. При цитировании материалов, созданных с помощью искусственного интеллекта (ИИ), необходимо обязательно указывать источник — «Wedoany». В случае выявления нарушения прав или иных проблем просим своевременно информировать нас. Сайт оперативно внесёт изменения или удалит материал.Электронная почта: news@wedoany.com










