К каталогу

NVIDIA: Nemotron 3 Nano 30B A3B

nvidia/nemotron-3-nano-30b-a3b
Использовать
Выпущена 14 декабря 2025 г.|262К контекст|4,08 ₽/М вход|16,33 ₽/М выход

NVIDIA Nemotron 3 Nano 30B A3B — это небольшая языковая модель MoE с высочайшей вычислительной эффективностью и точностью, предназначенная для разработчиков, создающих специализированные агентные системы ИИ.

Модель полностью открыта, с открытыми весами, наборами данных и рецептами, поэтому разработчики могут легко настраивать, оптимизировать и развертывать модель на своей инфраструктуре для обеспечения максимальной конфиденциальности и безопасности.

Провайдер для NVIDIA: Nemotron 3 Nano 30B A3B

Hubris маршрутизирует запросы через OpenRouter к лучшему доступному провайдеру с автоматическим fallback при сбоях.

Контекст
262К
токенов
Макс. ответ
228К
токенов
Вход
4,08 ₽
за 1М токенов
Выход
16,33 ₽
за 1М токенов

Модальности

Вход:ТекстВыход:Текст

Поддерживаемые параметры

frequency_penaltyinclude_reasoninglogit_biasmax_tokensmin_ppresence_penaltyreasoningrepetition_penaltyresponse_formatseedstoptemperaturetool_choicetoolstop_ktop_p

Другие модели от nvidia

NVIDIA: Nemotron 3 Nano Omni (free)

NVIDIA Nemotron™ 3 Nano Omni — это открытая мультимодальная модель 30B-A3B, разработанная для функционирования в качестве субагента восприятия и контекста в корпоративных агентских системах. Она принимает текст, изображения, видео и...

256К контекст·от бесплатно

NVIDIA: Nemotron 3 Super (free)

NVIDIA Nemotron 3 Super — это открытая гибридная модель MoE с 120 миллиардами параметров, которая активирует всего 12 миллиардов параметров для достижения максимальной вычислительной эффективности и точности в сложных многоагентных приложениях. Создана на основе гибридной архитектуры Mamba-Transformer...

262К контекст·от бесплатно

NVIDIA: Nemotron 3 Super

NVIDIA Nemotron 3 Super — это открытая гибридная модель MoE со 120 миллиардами параметров, активирующая всего 12 миллиардов параметров для максимальной вычислительной эффективности и точности в сложных многоагентных приложениях. Построенная на гибридной архитектуре Mamba-Transformer Mixture-of-Experts с предсказанием нескольких токенов (MTP), она обеспечивает более чем на 50% более высокую генерацию токенов по сравнению с ведущими открытыми моделями. Модель имеет контекстное окно в 1 миллион токенов для долгосрочной когерентности агентов, кросс-документного рассуждения и многошагового планирования задач. Latent MoE позволяет вызывать 4 экспертов при стоимости вывода всего одного, улучшая интеллект и обобщение. Обучение с подкреплением в нескольких средах (более 10) обеспечивает ведущую точность в бенчмарках, включая AIME 2025, TerminalBench и SWE-Bench Verified. Полностью открытая, с весами, наборами данных и рецептами под лицензией NVIDIA Open License, Nemotron 3 Super позволяет легко настраивать и безопасно развертывать ее где угодно — от рабочей станции до облака.

262К контекст·от 7,35 ₽

NVIDIA: Nemotron 3 Nano 30B A3B (free)

NVIDIA Nemotron 3 Nano 30B A3B — это небольшая языковая модель MoE с высочайшей вычислительной эффективностью и точностью для разработчиков, создающих специализированные агентные системы ИИ. Модель полностью...

256К контекст·от бесплатно

NVIDIA: Nemotron Nano 12B 2 VL (free)

NVIDIA Nemotron Nano 2 VL — это открытая мультимодальная модель рассуждений с 12 миллиардами параметров, разработанная для понимания видео и анализа документов. Она представляет гибридную архитектуру Transformer-Mamba, сочетающую точность на уровне трансформера с...

128К контекст·от бесплатно

NVIDIA: Nemotron Nano 12B 2 VL

NVIDIA Nemotron Nano 2 VL — это открытая мультимодальная модель рассуждений с 12 миллиардами параметров, разработанная для понимания видео и анализа документов. Она представляет гибридную архитектуру Transformer-Mamba, сочетающую точность на уровне Transformer с эффективным использованием памяти при моделировании последовательностей Mamba для значительно более высокой пропускной способности и меньшей задержки. Модель поддерживает ввод текста и многоизобразительных документов, выдавая результаты на естественном языке. Она обучена на высококачественных синтетических наборах данных, разработанных NVIDIA и оптимизированных для оптического распознавания символов, рассуждений по диаграммам и мультимодального понимания. Nemotron Nano 2 VL достигает лидирующих результатов на OCRBench v2 и набирает в среднем ≈ 74 балла по MMMU, MathVista, AI2D, OCRBench, OCR-Reasoning, ChartQA, DocVQA и Video-MME, превосходя предыдущие открытые базовые модели VL. Благодаря эффективной выборке видео (EVS) она обрабатывает длинные видео, снижая при этом затраты на вывод. Открытые веса, данные для обучения и рецепты fine-tuning выпущены под разрешительной открытой лицензией NVIDIA, с поддержкой развертывания в NeMo, NIM и основных средах выполнения вывода.

131К контекст·от 16,33 ₽