11 марта по местному времени Nvidia объявила о выпуске нового поколения открытой большой языковой модели Nemotron 3 Super. Эта модель специально разработана для корпоративных систем с несколькими агентами и использует новую архитектуру смешанных экспертов (MoE), что обеспечивает прорыв в пропускной способности вывода, превышающий в пять раз показатели предыдущего поколения моделей.
Выпуск Nemotron 3 Super знаменует дальнейшее расширение продуктовой линейки Nvidia в области больших моделей. В отличие от моделей, ориентированных на сценарии общего диалога, серия Nemotron с самого начала была сосредоточена на корпоративных сценариях применения. Представленная версия 3 Super оптимизирована под ключевые корпоративные потребности, такие как совместная работа нескольких агентов и высокопроизводительный вывод. Её основная архитектура была модернизирована до модели смешанных экспертов (MoE). Этот технический подход, заключающийся в разбиении модели на несколько подмодулей-"экспертов" и активации только тех частей, которые относятся к текущей задаче во время вывода, позволяет значительно повысить эффективность обработки без существенного увеличения вычислительных ресурсов.
По словам Nvidia, оптимизация на основе архитектуры MoE позволила увеличить пропускную способность вывода Nemotron 3 Super более чем в пять раз по сравнению с продуктами предыдущего поколения. Это означает, что при развертывании крупномасштабных AI-приложений предприятия смогут обрабатывать больше параллельных запросов при том же аппаратном обеспечении или значительно снизить задержку отклика. Для сложных бизнес-сценариев, требующих одновременной работы десятков или даже сотен AI-агентов, это повышение производительности имеет существенную коммерческую ценность.
Как открытая модель, выпуск Nemotron 3 Super также предоставляет корпоративным клиентам большую гибкость в настройке. Компании могут проводить тонкую настройку и развертывать её в частном порядке на её основе, что позволяет соответствовать требованиям безопасности данных и соответствия нормативным требованиям, одновременно используя постоянную оптимизацию Nvidia на уровне вычислительных мощностей. Этот выпуск продолжает стратегию Nvidia в области AI, основанную на полном стеке "аппаратное обеспечение + программное обеспечение + модели", и дополнительно укрепляет её позиции на корпоративном рынке AI.









