К каталогу

Mistral: Mixtral 8x7B Instruct

mistralai/mixtral-8x7b-instruct
Использовать
Выпущена 10 декабря 2023 г.|33К контекст|44,09 ₽/М вход|44,09 ₽/М выход

Mixtral 8x7B Instruct — это предварительно обученная генеративная модель Sparse Mixture of Experts от Mistral AI, предназначенная для использования в чатах и для выполнения инструкций. Она включает 8 экспертов (полносвязных нейронных сетей) с общим количеством параметров 47 миллиардов.

Инструктивная модель, доработанная Mistral. #moe

Провайдер для Mistral: Mixtral 8x7B Instruct

Hubris маршрутизирует запросы через OpenRouter к лучшему доступному провайдеру с автоматическим fallback при сбоях.

Контекст
33К
токенов
Макс. ответ
16К
токенов
Вход
44,09 ₽
за 1М токенов
Выход
44,09 ₽
за 1М токенов

Модальности

Вход:ТекстВыход:Текст

Поддерживаемые параметры

frequency_penaltylogit_biasmax_tokensmin_ppresence_penaltyrepetition_penaltyresponse_formatseedstopstructured_outputstemperaturetool_choicetoolstop_ktop_p

Другие модели от mistralai

Mistral: Mistral Small 4

Mistral Small 4 — это следующий крупный релиз в семействе Mistral Small, объединяющий возможности нескольких флагманских моделей Mistral в единую систему. Он сочетает в себе мощные способности к рассуждению от Magistral, мультимодальное понимание от Pixtral и агентские возможности кодирования от Devstral, что позволяет одной модели обрабатывать сложный анализ, разработку программного обеспечения и визуальные задачи в рамках одного рабочего процесса.

262К контекст·от 12,25 ₽

Mistral: Devstral 2 2512

Devstral 2 — это передовая модель с открытым исходным кодом от Mistral AI, специализирующаяся на агентном кодировании. Это плотная transformer-модель со 123 миллиардами параметров, поддерживающая контекстное окно размером 256K. Devstral 2 поддерживает исследование кодовых баз и организацию изменений в нескольких файлах, сохраняя при этом контекст на уровне архитектуры. Она отслеживает зависимости фреймворков, обнаруживает сбои и повторяет попытки с исправлениями, решая такие задачи, как исправление ошибок и модернизация устаревших систем. Модель может быть fine-tuned для приоритизации конкретных языков или оптимизации для больших корпоративных кодовых баз. Она доступна под модифицированной лицензией MIT.

262К контекст·от 32,66 ₽

Mistral: Ministral 3 14B 2512

Крупнейшая модель в семействе Ministral 3, Ministral 3 14B, предлагает передовые возможности и производительность, сравнимую с её более крупным аналогом Mistral Small 3.2 24B. Мощная и эффективная языковая модель с возможностями зрения.

262К контекст·от 16,33 ₽

Mistral: Ministral 3 8B 2512

Сбалансированная модель в семействе Ministral 3, Ministral 3 8B — это мощная, эффективная миниатюрная языковая модель с возможностями зрения.

262К контекст·от 12,25 ₽

Mistral: Ministral 3 3B 2512

Самая маленькая модель в семействе Ministral 3, Ministral 3 3B — это мощная, эффективная миниатюрная языковая модель с возможностями зрения.

131К контекст·от 8,16 ₽

Mistral: Mistral Large 3 2512

Mistral Large 3 2512 — это самая мощная на сегодняшний день модель Mistral, отличающаяся разреженной архитектурой Mixture-of-Experts с 41 млрд активных параметров (всего 675 млрд) и выпущенная под лицензией Apache 2.0.

262К контекст·от 40,82 ₽