К каталогу

NVIDIA: Llama 3.1 Nemotron 70B Instruct

nvidia/llama-3.1-nemotron-70b-instruct
Использовать
Выпущена 15 октября 2024 г.|131К контекст|97,97 ₽/М вход|97,97 ₽/М выход

NVIDIA Llama 3.1 Nemotron 70B — это языковая модель, разработанная для генерации точных и полезных ответов. Используя архитектуру Llama 3.1 70B и обучение с подкреплением на основе обратной связи от человека (RLHF), она превосходно показывает себя в бенчмарках автоматического выравнивания. Эта модель адаптирована для приложений, требующих высокой точности в полезности и генерации ответов, подходящих для разнообразных пользовательских запросов в различных областях.

Использование этой модели регулируется Политикой допустимого использования Meta.

Провайдер для NVIDIA: Llama 3.1 Nemotron 70B Instruct

Hubris маршрутизирует запросы через OpenRouter к лучшему доступному провайдеру с автоматическим fallback при сбоях.

Контекст
131К
токенов
Макс. ответ
16К
токенов
Вход
97,97 ₽
за 1М токенов
Выход
97,97 ₽
за 1М токенов

Модальности

Вход:ТекстВыход:Текст

Поддерживаемые параметры

frequency_penaltylogit_biasmax_tokensmin_ppresence_penaltyrepetition_penaltyresponse_formatseedstoptemperaturetool_choicetoolstop_ktop_p

Другие модели от nvidia

NVIDIA: Nemotron 3 Nano Omni (free)

NVIDIA Nemotron™ 3 Nano Omni — это открытая мультимодальная модель 30B-A3B, разработанная для функционирования в качестве субагента восприятия и контекста в корпоративных агентских системах. Она принимает текст, изображения, видео и...

256К контекст·от бесплатно

NVIDIA: Nemotron 3 Super (free)

NVIDIA Nemotron 3 Super — это открытая гибридная модель MoE с 120 миллиардами параметров, которая активирует всего 12 миллиардов параметров для достижения максимальной вычислительной эффективности и точности в сложных многоагентных приложениях. Создана на основе гибридной архитектуры Mamba-Transformer...

262К контекст·от бесплатно

NVIDIA: Nemotron 3 Super

NVIDIA Nemotron 3 Super — это открытая гибридная модель MoE со 120 миллиардами параметров, активирующая всего 12 миллиардов параметров для максимальной вычислительной эффективности и точности в сложных многоагентных приложениях. Построенная на гибридной архитектуре Mamba-Transformer Mixture-of-Experts с предсказанием нескольких токенов (MTP), она обеспечивает более чем на 50% более высокую генерацию токенов по сравнению с ведущими открытыми моделями. Модель имеет контекстное окно в 1 миллион токенов для долгосрочной когерентности агентов, кросс-документного рассуждения и многошагового планирования задач. Latent MoE позволяет вызывать 4 экспертов при стоимости вывода всего одного, улучшая интеллект и обобщение. Обучение с подкреплением в нескольких средах (более 10) обеспечивает ведущую точность в бенчмарках, включая AIME 2025, TerminalBench и SWE-Bench Verified. Полностью открытая, с весами, наборами данных и рецептами под лицензией NVIDIA Open License, Nemotron 3 Super позволяет легко настраивать и безопасно развертывать ее где угодно — от рабочей станции до облака.

262К контекст·от 7,35 ₽

NVIDIA: Nemotron 3 Nano 30B A3B (free)

NVIDIA Nemotron 3 Nano 30B A3B — это небольшая языковая модель MoE с высочайшей вычислительной эффективностью и точностью для разработчиков, создающих специализированные агентные системы ИИ. Модель полностью...

256К контекст·от бесплатно

NVIDIA: Nemotron 3 Nano 30B A3B

NVIDIA Nemotron 3 Nano 30B A3B — это небольшая языковая модель MoE с высочайшей вычислительной эффективностью и точностью, предназначенная для разработчиков, создающих специализированные агентные системы ИИ. Модель полностью открыта, с открытыми весами, наборами данных и рецептами, поэтому разработчики могут легко настраивать, оптимизировать и развертывать модель на своей инфраструктуре для обеспечения максимальной конфиденциальности и безопасности.

262К контекст·от 4,08 ₽

NVIDIA: Nemotron Nano 12B 2 VL (free)

NVIDIA Nemotron Nano 2 VL — это открытая мультимодальная модель рассуждений с 12 миллиардами параметров, разработанная для понимания видео и анализа документов. Она представляет гибридную архитектуру Transformer-Mamba, сочетающую точность на уровне трансформера с...

128К контекст·от бесплатно