Репортаж от Wedoany,Американская компания MinIO 12 мая 2026 года в Редвуд-Сити представила систему контекстной памяти хранения данных MemKV, созданную специально для инференса ИИ. Она впервые выводит возможности микросекундного поиска контекста на петабайтный уровень, заполняя критический пробел между высокопропускной памятью в GPU-кластерах и объектным хранилищем. Согласно глобальному пресс-релизу компании, MemKV является второй опорой в портфеле продуктов MinIO после объектного хранилища AIStor и специально ориентирована на рабочие нагрузки инференса агентного ИИ. Обеспечивая постоянный общий контекст между GPU-кластерами, она полностью устраняет проблему повторных вычислений, вызванную потерей контекста.
В сценариях инференса ИИ объем высокопропускной памяти внутри GPU крайне ограничен. Когда запросы на инференс с длинным контекстом или мультиагентной координацией выходят за пределы ее возможностей, GPU вынужден отбрасывать уже вычисленные данные кэша пар «ключ-значение» и пересчитывать их заново. Эти потери, называемые в отрасли «налогом на повторные вычисления», приводят к бесполезной трате огромных вычислительных мощностей, времени и электроэнергии. Соучредитель и согенеральный директор MinIO АБ Периясами отметил, что в масштабе кластеров из тысячи GPU-карт такие потери являются уже не просто проблемой эффективности, а структурным тормозом. MemKV спроектирован специально для тракта данных инференса и «точечно устраняет» этот хронический недостаток.
Ключевой прорыв MemKV заключается в одновременном достижении высокой скорости и масштаба. Продукт интегрирован с архитектурой NVIDIA BlueField-4 STX и нативно взаимодействует с программными стеками NVIDIA Dynamo и NIXL. Посредством передачи RDMA данные кэша «ключ-значение» напрямую перемещаются между NVMe-накопителями и памятью GPU, минуя HTTP-протокол, файловую систему или отдельные серверы хранения. Размер блоков данных оптимизирован под пропускную способность GPU и составляет от 2 МБ до 16 МБ. Контрольные тесты при корпоративном развертывании показывают, что в типичном производственном кластере со 128 GPU и длиной контекста 128K токенов MemKV повышает утилизацию GPU примерно с 50% до более чем 90%, а сокращение потерь вычислительной мощности трансформируется в прямую экономию около 2 миллионов долларов США в год. Что касается задержек, внутренние бенчмарки демонстрируют 75-кратное улучшение задержки генерации первого токена, сжимая базовый показатель в 53 секунды до миллисекунд.
Долгое время основные инвестиции в исследования и разработки в области ИИ-инфраструктуры были сосредоточены на обучении моделей. По мере того как большие модели переходят от ответов на простые вопросы к выполнению сложных многошаговых задач, с конца 2025 года фокус отрасли начал ускоренно смещаться в сторону инференса. Опрос, проведенный ECI Research на саммите AI Builders Summit 2025 года, показал, что уже две трети руководителей предприятий в сфере ИИ внедрили пилотные проекты или полноценные рабочие процессы мультиагентной координации. Мультиагентная координация — это как раз тот сценарий, где ценность общего KV-кэша максимальна: различные агенты взаимодействуют между GPU, совместно используя контекст. Если бы при каждом взаимодействии требовался пересчет, задержки и затраты возрастали бы многократно. Общий постоянный пул контекста MemKV — это прямой ответ на данный структурный недостаток.
С точки зрения продуктовой логики индустрии хранения данных, MemKV не заменяет существующее объектное хранилище AIStor, а дополняет определенную NVIDIA архитектуру многоуровневой памяти STX новым уровнем кэша, называемым в отрасли «G3.5». Как самостоятельный продукт, он образует стек с разделением на верхний и нижний уровни вместе с AIStor. Штаб-квартира MinIO находится в Редвуд-Сити, штат Калифорния, США. Компания основана в 2014 году и закрепилась на рынке благодаря высокопроизводительному S3-совместимому объектному хранилищу, а в последние годы ведет непрерывную итерационную разработку в области инфраструктуры данных для ИИ.
Данный материал скомпилирован платформой Wedoany. При цитировании материалов, созданных с помощью искусственного интеллекта (ИИ), необходимо обязательно указывать источник — «Wedoany». В случае выявления нарушения прав или иных проблем просим своевременно информировать нас. Сайт оперативно внесёт изменения или удалит материал.Электронная почта: news@wedoany.com









