Оглавление

Испанская компания Multiverse Computing, специализирующаяся на методах сжатия нейросетей, объявила о выпуске обновленной модели HyperNova 60B 2602. Как пишет Yahoo Finance, этот легковесный вариант gpt-oss-120B от OpenAI теперь доступен для свободного скачивания на платформе Hugging Face, предлагая разработчикам производительность уровня флагманов при вдвое меньшем объеме параметров.

Интерес здесь вызывает не столько сам факт релиза, сколько настойчивое стремление компании доказать, что гигантизм в индустрии ИИ — болезнь излечимая. Модель весом в 32 ГБ заменяет собой оригинал объемом 61 ГБ, сохраняя при этом точность в пределах погрешности. Это открывает путь к запуску серьезных инструментов на «железе», которое раньше считалось для таких задач профнепригодным.

Технология CompactifAI и квантовая математика

В основе HyperNova лежит проприетарный фреймворк CompactifAI. Разработчики используют квантово-вдохновленную математику для анализа нейронных связей, безжалостно отсекая те, что не несут полезной информационной нагрузки. В то время как стандартные методы квантования часто роняют точность на 20–30%, алгоритмы Multiverse удерживают этот показатель в районе 2–3%.

Для инженеров это означает возможность оптимизировать процедуру разработки без необходимости арендовать целые серверные стойки. Сжатие до 95% — цифра амбициозная, и хотя в данном случае мы видим «скромные» 50%, прогресс в области agentic coding (агентного программирования) выглядит вполне осязаемым. Модель стала значительно лучше понимать контекст при вызове внешних инструментов и работе в терминале.

Бенчмарки и возможности интеграции

Если смотреть на сухие цифры, то версия 2602 сделала качественный рывок в специфических процессах. По результатам тестов, возможности агентов по использованию инструментов в Tau2-Bench выросли в пять раз, а навыки кодинга в Terminal Bench Hard — вдвое. Это намекает на то, что модель готовили не для праздных бесед, а для реальной автоматизации рутинных задач разработчика.

«Запуск HyperNova 60B 2602 подтверждает, что сжатие — это итеративный процесс улучшения, а не разовая оптимизация. Мы даем разработчикам инструменты для экспериментов и развертывания эффективного ИИ без колоссальных инвестиций в инфраструктуру», — говорит Энрике Лизасо Олмос, CEO Multiverse Computing

Такой подход позволяет встроить агента практически в любую корпоративную среду. Компании получают возможность тестировать безопасность и операционную пригодность моделей локально, не отправляя чувствительные данные в облака крупных провайдеров. Это важный шаг к технологическому суверенитету, о котором сейчас так много говорят в Европе.

Попытка упаковать мощь 120-миллиардной модели в компактный формат заслуживает уважения, однако магия чисел в бенчмарках часто разбивается о реальные пограничные случаи. Сжатие неизбежно упрощает внутренние репрезентации данных, что может проявиться в самый неподходящий момент при решении нетипичных логических задач. Пока Multiverse фокусируется на эффективности, стратегический вопрос о долгосрочной стабильности таких «диет» остается открытым. Уместить интеллект в 32 ГБ — это победа инженерии, но не стоит путать оптимизацию весов с ростом когнитивных способностей.

В ближайших планах компании — расширение линейки открытых моделей в течение 2026 года. Ожидается появление версий, адаптированных для edge-устройств и интернета вещей. Похоже, индустрия постепенно осознает: будущее не за теми, у кого больше видеокарт, а за теми, кто научит ИИ работать на том, что уже лежит у нас в кармане.