Alltokens

NVIDIA: Nemotron 3 Super

NVNvidiaОбновлено: 11 марта 2026 г.

NVIDIA Nemotron 3 Super — это гибридная MoE-модель на 120 млрд параметров, использующая архитектуру Mamba-Transformer для высокой эффективности. Она оптимизирована для сложных мультиагентных систем и демонстрирует выдающиеся результаты в программировании и логическом планировании.

Использовать через API

Метрики

Вход

14 ₽/M

Выход

67 ₽/M

Контекст

262k tokens

Параметры

15

Релиз

11 марта 2026 г.

Поддерживаемые параметры

frequency_penaltyinclude_reasoningmax_tokensmin_ppresence_penaltyreasoningrepetition_penaltyresponse_formatseedstoptemperaturetool_choicetoolstop_ktop_p

Технический обзор

NVIDIA Nemotron 3 Super — это открытая гибридная модель MoE с 120 миллиардами параметров, активирующая всего 12 миллиардов параметров для максимальной вычислительной эффективности и точности в сложных многоагентных приложениях. Основанная на гибридной архитектуре Mamba-Transformer Mixture-of-Experts с много-токеновым предсказанием (MTP), она обеспечивает более чем 50% прирост генерации токенов по сравнению с ведущими открытыми моделями. Модель оснащена контекстным окном в 1 миллион токенов для долгосрочной когерентности агентов, междокументного рассуждения и планирования многошаговых задач. Latent MoE позволяет вызывать 4 эксперта за стоимость одного, улучшая интеллект и обобщение. Многосредовое обучение с подкреплением (RL) на 10+ средах обеспечивает лидирующую точность на бенчмарках, включая AIME 2025, TerminalBench и SWE-Bench Verified. Полностью открытая с весами, наборами данных и рецептами под лицензией NVIDIA Open License, Nemotron 3 Super позволяет легко настраивать и безопасно развертывать модель в любом месте — от рабочей станции до облака.

Кодинг
Инструменты
Длинный контекст
Мультимодальность
Веб-автоматизация

Смежные подборки

Сравнение с похожими моделями

Модель

Для чего

NVIDIA Nemotron 3 Super — это гибридная MoE-модель на 120 млрд параметров, использующая архитектуру Mamba-Transformer для высокой эффективности. Она оптимизирована для сложных мультиагентных систем и демонстрирует выдающиеся результаты в программировании и логическом планировании.

Контекст

262k

Цена ₽

14 / 67

Для чего

Обе модели используют архитектуру Mixture-of-Experts (MoE) и ориентированы на решение сложных технических и логических задач.

Контекст

262k

Цена ₽

30 / 134

Для чего

Модели находятся в одной ценовой категории и показывают высокую производительность в задачах разработки и работы с кодом.

Контекст

256k

Цена ₽

41 / 121

Когда выбирать

  • Для создания сложных мультиагентных систем и многошагового планирования задач
  • При необходимости работы с огромными контекстами до 1 млн токенов для анализа документов
  • Для задач программирования и инженерных вычислений, требующих высокой точности на бенчмарках уровня SWE-Bench

Когда не выбирать

  • Если требуется максимально низкая стоимость генерации токенов в простых текстовых задачах
  • Для работы в приложениях, где критически важна поддержка модальностей помимо текста
  • Если для ваших задач достаточно компактных моделей с меньшим количеством параметров

FAQ

МИРVisaMastercardСБП
AllTokens

© 2026 Alltokens. Все права защищены.