MiniMax: MiniMax-01
minimax/minimax-01MiniMax-01 сочетает MiniMax-Text-01 для генерации текста и MiniMax-VL-01 для понимания изображений. Он имеет 456 миллиардов параметров, при этом 45,9 миллиарда параметров активируются за одно логическое выведение, и может обрабатывать контекст до 4 миллионов токенов.
Текстовая модель использует гибридную архитектуру, которая сочетает Lightning Attention, Softmax Attention и Mixture-of-Experts (MoE). Модель изображений использует фреймворк «ViT-MLP-LLM» и обучается поверх текстовой модели.
Чтобы узнать больше о выпуске, см.: https://www.minimaxi.com/en/news/minimax-01-series-2
Провайдер для MiniMax: MiniMax-01
Hubris маршрутизирует запросы через OpenRouter к лучшему доступному провайдеру с автоматическим fallback при сбоях.
Модальности
Поддерживаемые параметры
Другие модели от minimax
MiniMax: MiniMax M2.7
MiniMax-M2.7 — это крупная языковая модель нового поколения, разработанная для автономной, реальной продуктивности и непрерывного совершенствования. Созданная для активного участия в собственной эволюции, M2.7 интегрирует передовые агентные возможности посредством многоагентного сотрудничества, позволяя ей планировать, выполнять и уточнять сложные задачи в динамичных средах. Обученная для производительности производственного уровня, M2.7 обрабатывает рабочие процессы, такие как отладка в реальном времени, анализ первопричин, финансовое моделирование и полная генерация документов в Word, Excel и PowerPoint. Она демонстрирует высокие результаты в бенчмарках, включая 56,2% на SWE-Pro и 57,0% на Terminal Bench 2, при этом достигая 1495 ELO на GDPval-AA, устанавливая новый стандарт для многоагентных систем, работающих в реальных цифровых рабочих процессах.
MiniMax: MiniMax M2.5
MiniMax-M2.5 — это современная большая языковая модель (SOTA LLM), разработанная для повышения продуктивности в реальных условиях. Обученная в разнообразных и сложных реальных цифровых рабочих средах, M2.5 развивает опыт кодирования M2.1, расширяя его до общей офисной работы, достигая беглости в создании и оперировании файлами Word, Excel и PowerPoint, переключении контекста между различными программными средами и работе в разных командах агентов и людей. Набрав 80,2% на SWE-Bench Verified, 51,3% на Multi-SWE-Bench и 76,3% на BrowseComp, M2.5 также более эффективна по токенам, чем предыдущие поколения, поскольку была обучена оптимизировать свои действия и вывод посредством планирования.
MiniMax: MiniMax M2.5 (free)
MiniMax-M2.5 — это SOTA большая языковая модель, разработанная для повышения продуктивности в реальных условиях. Обученная в разнообразных сложных реальных цифровых рабочих средах, M2.5 основывается на опыте кодирования M2.1...
MiniMax: MiniMax M2-her
MiniMax M2-her — это большая языковая модель, ориентированная на диалог, созданная для иммерсивных ролевых игр, чатов, управляемых персонажами, и выразительных многоходовых бесед. Разработанная для поддержания согласованности тона и индивидуальности, она поддерживает богатые роли сообщений (user_system, group, sample_message_user, sample_message_ai) и может учиться на примерах диалогов, чтобы лучше соответствовать стилю и темпу вашего сценария, что делает ее отличным выбором для рассказывания историй, компаньонов и разговорных взаимодействий, где естественный поток и яркое общение имеют наибольшее значение.
MiniMax: MiniMax M2.1
MiniMax-M2.1 — это легковесная, современная большая языковая модель, оптимизированная для кодирования, агентских рабочих процессов и разработки современных приложений. Имея всего 10 миллиардов активированных параметров, она обеспечивает значительный скачок в реальных возможностях, сохраняя при этом исключительную задержку, масштабируемость и экономическую эффективность. По сравнению со своим предшественником, M2.1 выдает более чистые, лаконичные результаты и более быстрое воспринимаемое время отклика. Она демонстрирует ведущую многоязычную производительность кодирования на основных системных и прикладных языках, достигая 49,4% на Multi-SWE-Bench и 72,5% на SWE-Bench Multilingual, и служит универсальным «мозгом» агента для IDE, инструментов кодирования и общей помощи. Чтобы избежать снижения производительности этой модели, MiniMax настоятельно рекомендует сохранять рассуждения между ходами. Узнайте больше об использовании `reasoning_details` для передачи рассуждений в нашей [документации](https://openrouter.ai/docs/use-cases/reasoning-tokens#preserving-reasoning-blocks).
MiniMax: MiniMax M2
MiniMax-M2 — это компактная, высокоэффективная большая языковая модель (LLM), оптимизированная для сквозного кодирования и агентских рабочих процессов. Обладая 10 миллиардами активированных параметров (всего 230 миллиардов), она обеспечивает интеллект, близкий к передовому, в области общего рассуждения, использования инструментов и выполнения многоэтапных задач, сохраняя при этом низкую задержку и эффективность развертывания. Модель превосходно справляется с генерацией кода, редактированием нескольких файлов, циклами компиляции-запуска-исправления и ремонтом, проверенным тестами, демонстрируя высокие результаты на SWE-Bench Verified, Multi-SWE-Bench и Terminal-Bench. Она также конкурентоспособна в агентских оценках, таких как BrowseComp и GAIA, эффективно справляясь с долгосрочным планированием, извлечением информации и восстановлением после ошибок выполнения. По оценке [Artificial Analysis](https://artificialanalysis.ai/models/minimax-m2), MiniMax-M2 входит в число лучших моделей с открытым исходным кодом по комплексной интеллектуальной производительности, охватывающей математику, естественные науки и следование инструкциям. Небольшой объем активации обеспечивает быстрый вывод, высокую параллельность и улучшенную экономику единицы, что делает ее хорошо подходящей для крупномасштабных агентов, помощников разработчиков и приложений, основанных на рассуждениях, которые требуют отзывчивости и экономической эффективности. Чтобы избежать снижения производительности этой модели, MiniMax настоятельно рекомендует сохранять рассуждения между ходами. Узнайте больше об использовании `reasoning_details` для передачи рассуждений в нашей [документации](https://openrouter.ai/docs/use-cases/reasoning-tokens#preserving-reasoning-blocks).