Mistral: Devstral Small 1.1
mistralai/devstral-smallDevstral Small 1.1 — это открытая языковая модель с 24 миллиардами параметров для программных агентов, разработанная Mistral AI в сотрудничестве с All Hands AI. Модель доработана на основе Mistral Small 3.1 и выпущена под лицензией Apache 2.0. Она имеет контекстное окно в 128 тысяч токенов и поддерживает как вызов функций в стиле Mistral, так и вывод в формате XML.
Разработанная для агентских рабочих процессов кодирования, Devstral Small 1.1 оптимизирована для таких задач, как исследование кодовой базы, редактирование нескольких файлов и интеграция в автономные агенты разработки, такие как OpenHands и Cline. Она достигает 53,6% на SWE-Bench Verified, превосходя все другие открытые модели по этому показателю, при этом оставаясь достаточно легковесной, чтобы работать на одной видеокарте 4090 или машине с Apple silicon. Модель использует Tekken tokenizer со словарем в 131 тысячу слов и может быть развернута через vLLM, Transformers, Ollama, LM Studio и другие совместимые с OpenAI среды выполнения.
Провайдер для Mistral: Devstral Small 1.1
Hubris маршрутизирует запросы через OpenRouter к лучшему доступному провайдеру с автоматическим fallback при сбоях.
Модальности
Поддерживаемые параметры
Другие модели от mistralai
Mistral: Mistral Small 4
Mistral Small 4 — это следующий крупный релиз в семействе Mistral Small, объединяющий возможности нескольких флагманских моделей Mistral в единую систему. Он сочетает в себе мощные способности к рассуждению от Magistral, мультимодальное понимание от Pixtral и агентские возможности кодирования от Devstral, что позволяет одной модели обрабатывать сложный анализ, разработку программного обеспечения и визуальные задачи в рамках одного рабочего процесса.
Mistral: Devstral 2 2512
Devstral 2 — это передовая модель с открытым исходным кодом от Mistral AI, специализирующаяся на агентном кодировании. Это плотная transformer-модель со 123 миллиардами параметров, поддерживающая контекстное окно размером 256K. Devstral 2 поддерживает исследование кодовых баз и организацию изменений в нескольких файлах, сохраняя при этом контекст на уровне архитектуры. Она отслеживает зависимости фреймворков, обнаруживает сбои и повторяет попытки с исправлениями, решая такие задачи, как исправление ошибок и модернизация устаревших систем. Модель может быть fine-tuned для приоритизации конкретных языков или оптимизации для больших корпоративных кодовых баз. Она доступна под модифицированной лицензией MIT.
Mistral: Ministral 3 14B 2512
Крупнейшая модель в семействе Ministral 3, Ministral 3 14B, предлагает передовые возможности и производительность, сравнимую с её более крупным аналогом Mistral Small 3.2 24B. Мощная и эффективная языковая модель с возможностями зрения.
Mistral: Ministral 3 8B 2512
Сбалансированная модель в семействе Ministral 3, Ministral 3 8B — это мощная, эффективная миниатюрная языковая модель с возможностями зрения.
Mistral: Ministral 3 3B 2512
Самая маленькая модель в семействе Ministral 3, Ministral 3 3B — это мощная, эффективная миниатюрная языковая модель с возможностями зрения.
Mistral: Mistral Large 3 2512
Mistral Large 3 2512 — это самая мощная на сегодняшний день модель Mistral, отличающаяся разреженной архитектурой Mixture-of-Experts с 41 млрд активных параметров (всего 675 млрд) и выпущенная под лицензией Apache 2.0.