Meta: Llama 3 8B Instruct
meta-llama/llama-3-8b-instructПоследнее поколение моделей Meta (Llama 3) было выпущено в различных размерах и вариантах. Эта 8B версия, настроенная для инструкций, была оптимизирована для высококачественных диалоговых сценариев использования.
Она продемонстрировала высокую производительность по сравнению с ведущими закрытыми моделями в человеческих оценках.
Чтобы узнать больше о выпуске модели, нажмите здесь. Использование этой модели регулируется Политикой допустимого использования Meta.
Провайдер для Meta: Llama 3 8B Instruct
Hubris маршрутизирует запросы через OpenRouter к лучшему доступному провайдеру с автоматическим fallback при сбоях.
Модальности
Поддерживаемые параметры
Другие модели от meta-llama
Meta: Llama Guard 4 12B
Llama Guard 4 — это мультимодальная предварительно обученная модель, созданная на основе Llama 4 Scout и доработанная для классификации безопасности контента. Как и предыдущие версии, она может использоваться для классификации контента как во входных данных LLM (классификация запросов), так и в ответах LLM (классификация ответов). Она действует как LLM, генерируя в своем выводе текст, который указывает, является ли данный запрос или ответ безопасным или небезопасным, и если небезопасным, то также перечисляет нарушенные категории контента. Llama Guard 4 была настроена для защиты от стандартизированной таксономии опасностей MLCommons и разработана для поддержки мультимодальных возможностей Llama 4. В частности, она объединяет функции предыдущих моделей Llama Guard, обеспечивая модерацию контента для английского и нескольких поддерживаемых языков, а также расширенные возможности для обработки смешанных текстово-изобразительных запросов, включая несколько изображений. Кроме того, Llama Guard 4 интегрирована в API Llama Moderations, расширяя надежную классификацию безопасности на текст и изображения.
Meta: Llama 4 Maverick
Llama 4 Maverick 17B Instruct (128E) — это высокопроизводительная мультиязычная модель от Meta, построенная на архитектуре Mixture-of-Experts (MoE) со 128 экспертами и 17 миллиардами активных параметров на прямой проход (всего 400 миллиардов). Она поддерживает ввод текста и изображений на нескольких языках, а также генерирует текст и код на 12 поддерживаемых языках. Оптимизированная для задач «зрение-язык», Maverick настроена на выполнение инструкций для поведения, подобного ассистенту, рассуждений по изображениям и многоцелевого мультимодального взаимодействия. Maverick отличается ранним слиянием для нативной мультимодальности и контекстным окном в 1 миллион токенов. Она была обучена на тщательно отобранной смеси общедоступных, лицензированных данных и данных платформы Meta, охватывающих около 22 триллионов токенов, с датой отсечения знаний в августе 2024 года. Выпущенная 5 апреля 2025 года под лицензией Llama 4 Community License, Maverick подходит для исследовательских и коммерческих приложений, требующих продвинутого мультимодального понимания и высокой пропускной способности модели.
Meta: Llama 4 Scout
Llama 4 Scout 17B Instruct (16E) — это языковая модель типа «смесь экспертов» (MoE), разработанная Meta, активирующая 17 миллиардов параметров из общего числа 109 миллиардов. Она поддерживает нативный мультимодальный ввод (текст и изображение) и многоязычный вывод (текст и код) на 12 поддерживаемых языках. Разработанная для взаимодействия в стиле ассистента и визуального мышления, Scout использует 16 экспертов на прямой проход и имеет длину контекста 10 миллионов токенов, с обучающим корпусом объемом около 40 триллионов токенов. Созданная для высокой эффективности и локального или коммерческого развертывания, Llama 4 Scout включает раннее слияние для бесшовной интеграции модальностей. Она настроена с помощью инструкций для использования в многоязычных чатах, создании подписей и задачах понимания изображений. Выпущенная под лицензией Llama 4 Community License, она последний раз обучалась на данных до августа 2024 года и была публично запущена 5 апреля 2025 года.
Llama Guard 3 8B
Llama Guard 3 — это предварительно обученная модель Llama-3.1-8B, доработанная для классификации контента по безопасности. Как и предыдущие версии, она может использоваться для классификации контента как во входных данных LLM (классификация запросов), так и в ответах LLM (классификация ответов). Она действует как LLM — генерирует текст в своем выводе, который указывает, является ли данный запрос или ответ безопасным или небезопасным, и если небезопасным, то также перечисляет нарушенные категории контента. Llama Guard 3 была настроена для защиты от стандартизированной таксономии угроз MLCommons и разработана для поддержки возможностей Llama 3.1. В частности, она обеспечивает модерацию контента на 8 языках и была оптимизирована для поддержки безопасности при вызовах инструментов поиска и интерпретатора кода.
Meta: Llama 3.3 70B Instruct
Мультиязычная большая языковая модель (LLM) Meta Llama 3.3 — это предварительно обученная и настроенная на инструкции генеративная модель с 70B параметрами (ввод текста/вывод текста). Модель Llama 3.3, настроенная на инструкции и работающая только с текстом, оптимизирована для многоязычных диалоговых сценариев использования и превосходит многие доступные открытые и закрытые чат-модели по общим отраслевым бенчмаркам. Поддерживаемые языки: английский, немецкий, французский, итальянский, португальский, хинди, испанский и тайский. [Карточка модели](https://github.com/meta-llama/llama-models/blob/main/models/llama3_3/MODEL_CARD.md)
Meta: Llama 3.3 70B Instruct (free)
Мультиязычная большая языковая модель (LLM) Meta Llama 3.3 — это предварительно обученная и настроенная на инструкции генеративная модель с 70B параметрами (ввод текста/вывод текста). Модель Llama 3.3, настроенная на инструкции, только для текста...