К каталогу

Mistral: Mistral Small 3

mistralai/mistral-small-24b-instruct-2501
Использовать
Выпущена 30 января 2025 г.|33К контекст|4,08 ₽/М вход|6,53 ₽/М выход

Mistral Small 3 — это языковая модель с 24 миллиардами параметров, оптимизированная для работы с низкой задержкой при выполнении распространенных задач ИИ. Выпущенная под лицензией Apache 2.0, она включает как предварительно обученные, так и настроенные на инструкции версии, разработанные для эффективного локального развертывания.

Модель достигает 81% точности в бенчмарке MMLU и конкурирует с более крупными моделями, такими как Llama 3.3 70B и Qwen 32B, при этом работая в три раза быстрее на эквивалентном оборудовании. Прочитайте сообщение в блоге о модели здесь.

Провайдер для Mistral: Mistral Small 3

Hubris маршрутизирует запросы через OpenRouter к лучшему доступному провайдеру с автоматическим fallback при сбоях.

Контекст
33К
токенов
Макс. ответ
16К
токенов
Вход
4,08 ₽
за 1М токенов
Выход
6,53 ₽
за 1М токенов

Модальности

Вход:ТекстВыход:Текст

Поддерживаемые параметры

frequency_penaltylogit_biasmax_tokensmin_ppresence_penaltyrepetition_penaltyresponse_formatseedstopstructured_outputstemperaturetop_ktop_p

Другие модели от mistralai

Mistral: Mistral Small 4

Mistral Small 4 — это следующий крупный релиз в семействе Mistral Small, объединяющий возможности нескольких флагманских моделей Mistral в единую систему. Он сочетает в себе мощные способности к рассуждению от Magistral, мультимодальное понимание от Pixtral и агентские возможности кодирования от Devstral, что позволяет одной модели обрабатывать сложный анализ, разработку программного обеспечения и визуальные задачи в рамках одного рабочего процесса.

262К контекст·от 12,25 ₽

Mistral: Devstral 2 2512

Devstral 2 — это передовая модель с открытым исходным кодом от Mistral AI, специализирующаяся на агентном кодировании. Это плотная transformer-модель со 123 миллиардами параметров, поддерживающая контекстное окно размером 256K. Devstral 2 поддерживает исследование кодовых баз и организацию изменений в нескольких файлах, сохраняя при этом контекст на уровне архитектуры. Она отслеживает зависимости фреймворков, обнаруживает сбои и повторяет попытки с исправлениями, решая такие задачи, как исправление ошибок и модернизация устаревших систем. Модель может быть fine-tuned для приоритизации конкретных языков или оптимизации для больших корпоративных кодовых баз. Она доступна под модифицированной лицензией MIT.

262К контекст·от 32,66 ₽

Mistral: Ministral 3 14B 2512

Крупнейшая модель в семействе Ministral 3, Ministral 3 14B, предлагает передовые возможности и производительность, сравнимую с её более крупным аналогом Mistral Small 3.2 24B. Мощная и эффективная языковая модель с возможностями зрения.

262К контекст·от 16,33 ₽

Mistral: Ministral 3 8B 2512

Сбалансированная модель в семействе Ministral 3, Ministral 3 8B — это мощная, эффективная миниатюрная языковая модель с возможностями зрения.

262К контекст·от 12,25 ₽

Mistral: Ministral 3 3B 2512

Самая маленькая модель в семействе Ministral 3, Ministral 3 3B — это мощная, эффективная миниатюрная языковая модель с возможностями зрения.

131К контекст·от 8,16 ₽

Mistral: Mistral Large 3 2512

Mistral Large 3 2512 — это самая мощная на сегодняшний день модель Mistral, отличающаяся разреженной архитектурой Mixture-of-Experts с 41 млрд активных параметров (всего 675 млрд) и выпущенная под лицензией Apache 2.0.

262К контекст·от 40,82 ₽