К каталогу

MiniMax: MiniMax M2-her

minimax/minimax-m2-her
Использовать
Выпущена 23 января 2026 г.|66К контекст|24,49 ₽/М вход|97,97 ₽/М выход

MiniMax M2-her — это большая языковая модель, ориентированная на диалог, созданная для иммерсивных ролевых игр, чатов, управляемых персонажами, и выразительных многоходовых бесед. Разработанная для поддержания согласованности тона и индивидуальности, она поддерживает богатые роли сообщений (user_system, group, sample_message_user, sample_message_ai) и может учиться на примерах диалогов, чтобы лучше соответствовать стилю и темпу вашего сценария, что делает ее отличным выбором для рассказывания историй, компаньонов и разговорных взаимодействий, где естественный поток и яркое общение имеют наибольшее значение.

Провайдер для MiniMax: MiniMax M2-her

Hubris маршрутизирует запросы через OpenRouter к лучшему доступному провайдеру с автоматическим fallback при сбоях.

Контекст
66К
токенов
Макс. ответ
токенов
Вход
24,49 ₽
за 1М токенов
Выход
97,97 ₽
за 1М токенов
Кеш чтение
2,45 ₽
за 1М токенов

Модальности

Вход:ТекстВыход:Текст

Поддерживаемые параметры

max_tokenstemperaturetop_p

Другие модели от minimax

MiniMax: MiniMax M2.7

MiniMax-M2.7 — это крупная языковая модель нового поколения, разработанная для автономной, реальной продуктивности и непрерывного совершенствования. Созданная для активного участия в собственной эволюции, M2.7 интегрирует передовые агентные возможности посредством многоагентного сотрудничества, позволяя ей планировать, выполнять и уточнять сложные задачи в динамичных средах. Обученная для производительности производственного уровня, M2.7 обрабатывает рабочие процессы, такие как отладка в реальном времени, анализ первопричин, финансовое моделирование и полная генерация документов в Word, Excel и PowerPoint. Она демонстрирует высокие результаты в бенчмарках, включая 56,2% на SWE-Pro и 57,0% на Terminal Bench 2, при этом достигая 1495 ELO на GDPval-AA, устанавливая новый стандарт для многоагентных систем, работающих в реальных цифровых рабочих процессах.

197К контекст·от 24,49 ₽

MiniMax: MiniMax M2.5 (free)

MiniMax-M2.5 — это SOTA большая языковая модель, разработанная для повышения продуктивности в реальных условиях. Обученная в разнообразных сложных реальных цифровых рабочих средах, M2.5 основывается на опыте кодирования M2.1...

197К контекст·от бесплатно

MiniMax: MiniMax M2.5

MiniMax-M2.5 — это современная большая языковая модель (SOTA LLM), разработанная для повышения продуктивности в реальных условиях. Обученная в разнообразных и сложных реальных цифровых рабочих средах, M2.5 развивает опыт кодирования M2.1, расширяя его до общей офисной работы, достигая беглости в создании и оперировании файлами Word, Excel и PowerPoint, переключении контекста между различными программными средами и работе в разных командах агентов и людей. Набрав 80,2% на SWE-Bench Verified, 51,3% на Multi-SWE-Bench и 76,3% на BrowseComp, M2.5 также более эффективна по токенам, чем предыдущие поколения, поскольку была обучена оптимизировать свои действия и вывод посредством планирования.

197К контекст·от 12,25 ₽

MiniMax: MiniMax M2.1

MiniMax-M2.1 — это легковесная, современная большая языковая модель, оптимизированная для кодирования, агентских рабочих процессов и разработки современных приложений. Имея всего 10 миллиардов активированных параметров, она обеспечивает значительный скачок в реальных возможностях, сохраняя при этом исключительную задержку, масштабируемость и экономическую эффективность. По сравнению со своим предшественником, M2.1 выдает более чистые, лаконичные результаты и более быстрое воспринимаемое время отклика. Она демонстрирует ведущую многоязычную производительность кодирования на основных системных и прикладных языках, достигая 49,4% на Multi-SWE-Bench и 72,5% на SWE-Bench Multilingual, и служит универсальным «мозгом» агента для IDE, инструментов кодирования и общей помощи. Чтобы избежать снижения производительности этой модели, MiniMax настоятельно рекомендует сохранять рассуждения между ходами. Узнайте больше об использовании `reasoning_details` для передачи рассуждений в нашей [документации](https://openrouter.ai/docs/use-cases/reasoning-tokens#preserving-reasoning-blocks).

197К контекст·от 23,68 ₽

MiniMax: MiniMax M2

MiniMax-M2 — это компактная, высокоэффективная большая языковая модель (LLM), оптимизированная для сквозного кодирования и агентских рабочих процессов. Обладая 10 миллиардами активированных параметров (всего 230 миллиардов), она обеспечивает интеллект, близкий к передовому, в области общего рассуждения, использования инструментов и выполнения многоэтапных задач, сохраняя при этом низкую задержку и эффективность развертывания. Модель превосходно справляется с генерацией кода, редактированием нескольких файлов, циклами компиляции-запуска-исправления и ремонтом, проверенным тестами, демонстрируя высокие результаты на SWE-Bench Verified, Multi-SWE-Bench и Terminal-Bench. Она также конкурентоспособна в агентских оценках, таких как BrowseComp и GAIA, эффективно справляясь с долгосрочным планированием, извлечением информации и восстановлением после ошибок выполнения. По оценке [Artificial Analysis](https://artificialanalysis.ai/models/minimax-m2), MiniMax-M2 входит в число лучших моделей с открытым исходным кодом по комплексной интеллектуальной производительности, охватывающей математику, естественные науки и следование инструкциям. Небольшой объем активации обеспечивает быстрый вывод, высокую параллельность и улучшенную экономику единицы, что делает ее хорошо подходящей для крупномасштабных агентов, помощников разработчиков и приложений, основанных на рассуждениях, которые требуют отзывчивости и экономической эффективности. Чтобы избежать снижения производительности этой модели, MiniMax настоятельно рекомендует сохранять рассуждения между ходами. Узнайте больше об использовании `reasoning_details` для передачи рассуждений в нашей [документации](https://openrouter.ai/docs/use-cases/reasoning-tokens#preserving-reasoning-blocks).

197К контекст·от 20,82 ₽

MiniMax: MiniMax M1

MiniMax-M1 — это крупномасштабная модель рассуждений с открытым весом, разработанная для расширенного контекста и высокоэффективного вывода. Она использует гибридную архитектуру Mixture-of-Experts (MoE) в сочетании с настраиваемым механизмом «lightning attention», что позволяет ей обрабатывать длинные последовательности — до 1 миллиона токенов — при сохранении конкурентной эффективности FLOP. Обладая 456 миллиардами общих параметров и 45,9 миллиардами активных параметров на токен, этот вариант оптимизирован для сложных, многошаговых задач рассуждений. Обученная с помощью настраиваемого конвейера обучения с подкреплением (CISPO), M1 превосходно справляется с пониманием длинного контекста, разработкой программного обеспечения, использованием агентских инструментов и математическими рассуждениями. Бенчмарки показывают высокую производительность в FullStackBench, SWE-bench, MATH, GPQA и TAU-Bench, часто превосходя другие открытые модели, такие как DeepSeek R1 и Qwen3-235B.

1.0М контекст·от 32,66 ₽