К каталогу

Inception: Mercury 2

inception/mercury-2
Использовать
Выпущена 4 марта 2026 г.|128К контекст|20,41 ₽/М вход|61,23 ₽/М выход

Mercury 2 — это чрезвычайно быстрая LLM для рассуждений и первая диффузионная LLM (dLLM) для рассуждений. Вместо последовательной генерации токенов Mercury 2 производит и уточняет несколько токенов параллельно, достигая скорости >1000 токенов/сек на стандартных GPU. Mercury 2 в 5 раз быстрее, чем ведущие LLM, оптимизированные по скорости, такие как Claude 4.5 Haiku и GPT 5 Mini, при значительно меньшей стоимости. Mercury 2 поддерживает настраиваемые уровни рассуждений, контекст 128K, нативное использование инструментов и вывод JSON, соответствующий схеме. Создан для рабочих процессов кодирования, где задержка накапливается, голосового поиска/поиска в реальном времени и циклов агентов. Совместим с OpenAI API. Подробнее читайте в блоге.

Провайдер для Inception: Mercury 2

Hubris маршрутизирует запросы через OpenRouter к лучшему доступному провайдеру с автоматическим fallback при сбоях.

Контекст
128К
токенов
Макс. ответ
50К
токенов
Вход
20,41 ₽
за 1М токенов
Выход
61,23 ₽
за 1М токенов
Кеш чтение
2,04 ₽
за 1М токенов

Модальности

Вход:ТекстВыход:Текст

Поддерживаемые параметры

include_reasoningmax_tokensreasoningresponse_formatstopstructured_outputstemperaturetool_choicetools