К каталогу

NVIDIA: Nemotron Nano 9B V2

nvidia/nemotron-nano-9b-v2
Использовать
Выпущена 5 сентября 2025 г.|131К контекст|3,27 ₽/М вход|13,06 ₽/М выход

NVIDIA-Nemotron-Nano-9B-v2 — это большая языковая модель (LLM), разработанная с нуля компанией NVIDIA и предназначенная для решения как логических, так и нелогических задач. Она отвечает на запросы и задачи пользователей, сначала генерируя цепочку рассуждений, а затем завершая ее окончательным ответом.

Возможности модели по рассуждению можно контролировать с помощью системного промпта. Если пользователь предпочитает, чтобы модель предоставляла окончательный ответ без промежуточных цепочек рассуждений, ее можно настроить соответствующим образом.

Провайдер для NVIDIA: Nemotron Nano 9B V2

Hubris маршрутизирует запросы через OpenRouter к лучшему доступному провайдеру с автоматическим fallback при сбоях.

Контекст
131К
токенов
Макс. ответ
16К
токенов
Вход
3,27 ₽
за 1М токенов
Выход
13,06 ₽
за 1М токенов

Модальности

Вход:ТекстВыход:Текст

Поддерживаемые параметры

frequency_penaltyinclude_reasoninglogit_biasmax_tokensmin_ppresence_penaltyreasoningrepetition_penaltyresponse_formatseedstoptemperaturetool_choicetoolstop_ktop_p

Другие модели от nvidia

NVIDIA: Nemotron 3 Nano Omni (free)

NVIDIA Nemotron™ 3 Nano Omni — это открытая мультимодальная модель 30B-A3B, разработанная для функционирования в качестве субагента восприятия и контекста в корпоративных агентских системах. Она принимает текст, изображения, видео и...

256К контекст·от бесплатно

NVIDIA: Nemotron 3 Super (free)

NVIDIA Nemotron 3 Super — это открытая гибридная модель MoE с 120 миллиардами параметров, которая активирует всего 12 миллиардов параметров для достижения максимальной вычислительной эффективности и точности в сложных многоагентных приложениях. Создана на основе гибридной архитектуры Mamba-Transformer...

262К контекст·от бесплатно

NVIDIA: Nemotron 3 Super

NVIDIA Nemotron 3 Super — это открытая гибридная модель MoE со 120 миллиардами параметров, активирующая всего 12 миллиардов параметров для максимальной вычислительной эффективности и точности в сложных многоагентных приложениях. Построенная на гибридной архитектуре Mamba-Transformer Mixture-of-Experts с предсказанием нескольких токенов (MTP), она обеспечивает более чем на 50% более высокую генерацию токенов по сравнению с ведущими открытыми моделями. Модель имеет контекстное окно в 1 миллион токенов для долгосрочной когерентности агентов, кросс-документного рассуждения и многошагового планирования задач. Latent MoE позволяет вызывать 4 экспертов при стоимости вывода всего одного, улучшая интеллект и обобщение. Обучение с подкреплением в нескольких средах (более 10) обеспечивает ведущую точность в бенчмарках, включая AIME 2025, TerminalBench и SWE-Bench Verified. Полностью открытая, с весами, наборами данных и рецептами под лицензией NVIDIA Open License, Nemotron 3 Super позволяет легко настраивать и безопасно развертывать ее где угодно — от рабочей станции до облака.

262К контекст·от 7,35 ₽

NVIDIA: Nemotron 3 Nano 30B A3B (free)

NVIDIA Nemotron 3 Nano 30B A3B — это небольшая языковая модель MoE с высочайшей вычислительной эффективностью и точностью для разработчиков, создающих специализированные агентные системы ИИ. Модель полностью...

256К контекст·от бесплатно

NVIDIA: Nemotron 3 Nano 30B A3B

NVIDIA Nemotron 3 Nano 30B A3B — это небольшая языковая модель MoE с высочайшей вычислительной эффективностью и точностью, предназначенная для разработчиков, создающих специализированные агентные системы ИИ. Модель полностью открыта, с открытыми весами, наборами данных и рецептами, поэтому разработчики могут легко настраивать, оптимизировать и развертывать модель на своей инфраструктуре для обеспечения максимальной конфиденциальности и безопасности.

262К контекст·от 4,08 ₽

NVIDIA: Nemotron Nano 12B 2 VL (free)

NVIDIA Nemotron Nano 2 VL — это открытая мультимодальная модель рассуждений с 12 миллиардами параметров, разработанная для понимания видео и анализа документов. Она представляет гибридную архитектуру Transformer-Mamba, сочетающую точность на уровне трансформера с...

128К контекст·от бесплатно