Nemotron 3 Super представляет собой гибридную модель Mamba-Transformer с открытым исходным кодом со 120 млрд параметров.
Фото Videocardz Nemotron 3 Super является частью серии моделей Nemotron 3 и первой моделью в этой серии, которая:
- Использует метод скрытого моделирования для повышения точности.
- Включает слои MTP для более быстрого вывода результатов за счет нативного спекулятивного декодирования.
- Предварительно обучена на NVFP4 .
- Nemotron 3 Super обеспечивает до 2,2 и 7,5 раза более высокую пропускную способность при выводе данных, чем GPT-OSS-120B и Qwen3.5-122B соответственно, при настройке на 8000 токенов на входе / 16 000 токенов на выходе.
- Nemotron 3 Super демонстрирует более высокую или сопоставимую точность с GPT-OSS-120B и Qwen3.5-122B в различных тестовых задачах.
- Поддерживает длину контекста до 1 миллиона токенов, превосходя при этом GPT-OSS-120B и Qwen3.5-122B на RULER при длине контекста в 1 миллион токенов.
Сама Nvidia позиционирует Nemotron 3 Super для работы с ИИ-агентами и большими объемами данных. В материалах к релизу компания указывает на разработку программного обеспечения, анализ длинных документов и задачи вызова инструментов как на основные целевые сценарии использования этой модели.