Inception: Mercury 2
inception/mercury-2Mercury 2 — это чрезвычайно быстрая LLM для рассуждений и первая диффузионная LLM (dLLM) для рассуждений. Вместо последовательной генерации токенов Mercury 2 производит и уточняет несколько токенов параллельно, достигая скорости >1000 токенов/сек на стандартных GPU. Mercury 2 в 5 раз быстрее, чем ведущие LLM, оптимизированные по скорости, такие как Claude 4.5 Haiku и GPT 5 Mini, при значительно меньшей стоимости. Mercury 2 поддерживает настраиваемые уровни рассуждений, контекст 128K, нативное использование инструментов и вывод JSON, соответствующий схеме. Создан для рабочих процессов кодирования, где задержка накапливается, голосового поиска/поиска в реальном времени и циклов агентов. Совместим с OpenAI API. Подробнее читайте в блоге.
Провайдер для Inception: Mercury 2
Hubris маршрутизирует запросы через OpenRouter к лучшему доступному провайдеру с автоматическим fallback при сбоях.