К каталогу

Arcee AI: Trinity Large Thinking

arcee-ai/trinity-large-thinking
Использовать
Выпущена 1 апреля 2026 г.|262К контекст|17,96 ₽/М вход|69,39 ₽/М выход

Trinity Large Thinking — это мощная открытая модель рассуждений от команды Arcee AI. Она демонстрирует высокую производительность в PinchBench, агентских рабочих нагрузках и задачах рассуждения. Видео запуска: https://youtu.be/Gc82AXLa0Rg?si=4RLn6WBz33qT--B7

Провайдер для Arcee AI: Trinity Large Thinking

Hubris маршрутизирует запросы через OpenRouter к лучшему доступному провайдеру с автоматическим fallback при сбоях.

Контекст
262К
токенов
Макс. ответ
262К
токенов
Вход
17,96 ₽
за 1М токенов
Выход
69,39 ₽
за 1М токенов
Кеш чтение
4,90 ₽
за 1М токенов

Модальности

Вход:ТекстВыход:Текст

Поддерживаемые параметры

frequency_penaltyinclude_reasoninglogit_biasmax_tokenspresence_penaltyreasoningrepetition_penaltyresponse_formatseedstopstructured_outputstemperaturetool_choicetoolstop_ktop_p

Другие модели от arcee-ai

Arcee AI: Trinity Large Preview

Trinity-Large-Preview — это передовая языковая модель с открытым весом от Arcee, построенная как разреженная Mixture-of-Experts с 400 миллиардами параметров и 13 миллиардами активных параметров на токен, использующая маршрутизацию 4 из 256 экспертов. Она превосходно справляется с творческим письмом, рассказыванием историй, ролевыми играми, сценариями чатов и голосовой помощью в реальном времени, лучше, чем обычно могут средние модели рассуждений. Но мы также представляем некоторые из наших новых агентных возможностей. Модель была обучена хорошо ориентироваться в агентских средах, таких как OpenCode, Cline и Kilo Code, а также обрабатывать сложные цепочки инструментов и длинные, насыщенные ограничениями prompt'ы. Архитектура изначально поддерживает очень большие контекстные окна до 512 тысяч токенов, при этом Preview API в настоящее время обслуживается с контекстом 128 тысяч токенов с использованием 8-битной квантизации для практического развертывания. Trinity-Large-Preview отражает философию Arcee, ориентированную на эффективность, предлагая производственно-ориентированную модель с открытым весом и разрешительной лицензией, подходящую для реальных приложений и экспериментов.

131К контекст·от 12,25 ₽

Arcee AI: Trinity Mini

Trinity Mini — это языковая модель с разреженной смесью экспертов (MoE) с 26 миллиардами параметров (3 миллиарда активных), включающая 128 экспертов, из которых 8 активны на каждый токен. Разработана для эффективного рассуждения в длинных контекстах (131k) с надёжным вызовом функций и многошаговыми рабочими процессами агентов.

131К контекст·от 3,67 ₽

Arcee AI: Spotlight

Spotlight — это 7-миллиардная vision-language модель, разработанная на основе Qwen 2.5-VL и доработанная компанией Arcee AI для задач точного сопоставления изображений и текста. Она предлагает контекстное окно размером 32k токенов, что позволяет вести насыщенные мультимодальные беседы, сочетающие длинные документы с одним или несколькими изображениями. Обучение было сосредоточено на быстром выводе на потребительских графических процессорах при сохранении высокой точности создания подписей, визуального ответа на вопросы и анализа диаграмм. В результате Spotlight легко вписывается в рабочие процессы агентов, где скриншоты, диаграммы или макеты пользовательского интерфейса должны интерпретироваться на лету. Ранние бенчмарки показывают, что она соответствует или превосходит более крупные VLM, такие как LLaVA-1.6 13B, в популярных тестах VQA и POPE.

131К контекст·от 14,70 ₽

Arcee AI: Maestro Reasoning

Maestro Reasoning — это флагманская аналитическая модель Arcee: производная Qwen 2.5-32B с 32 миллиардами параметров, настроенная с использованием DPO и chain-of-thought RL для пошаговой логики. По сравнению с более ранней 7B предварительной версией, производственная 32B версия расширяет контекстное окно до 128 тысяч токенов и удваивает процент успешных прохождений на MATH и GSM-8K, а также повышает точность завершения кода. Её стиль инструкций поощряет структурированные трассировки «мысль → ответ», которые могут быть проанализированы или скрыты в соответствии с предпочтениями пользователя. Такая прозрачность хорошо сочетается с отраслями, ориентированными на аудит, такими как финансы или здравоохранение, где важен путь рассуждений. В Arcee Conductor Maestro автоматически выбирается для сложных запросов с множеством ограничений, которые не могут обработать меньшие SLM.

131К контекст·от 73,48 ₽

Arcee AI: Virtuoso Large

Virtuoso-Large — это флагманская универсальная LLM от Arcee с 72 миллиардами параметров, настроенная для решения задач кросс-доменного рассуждения, творческого письма и корпоративного QA. В отличие от многих 70-миллиардных аналогов, она сохраняет контекст в 128 тысяч токенов, унаследованный от Qwen 2.5, что позволяет ей обрабатывать книги, кодовые базы или финансовые отчёты целиком. Обучение включало дистилляцию DeepSeek R1, многоэпохальную контролируемую fine-tuning и финальную стадию выравнивания DPO/RLHF, что обеспечило высокую производительность в тестах BIG-Bench-Hard, GSM-8K и Needle-In-Haystack с длинным контекстом. Предприятия используют Virtuoso-Large в качестве «резервного» мозга в конвейерах Conductor, когда другие SLM показывают низкую уверенность. Несмотря на свой размер, агрессивные оптимизации KV-кэша позволяют поддерживать задержку первого токена в диапазоне нескольких секунд на узлах с 8× H100, что делает её практичным производственным решением.

131К контекст·от 61,23 ₽

Arcee AI: Coder Large

Coder-Large — это модель с 32 миллиардами параметров, разработанная на основе Qwen 2.5-Instruct, которая была дополнительно обучена на корпусах GitHub, CodeSearchNet и синтетических исправлениях ошибок с разрешительной лицензией. Она поддерживает контекстное окно в 32k токенов, что позволяет выполнять рефакторинг нескольких файлов или просматривать длинные diff за один вызов, а также понимает более 30 языков программирования с особым вниманием к TypeScript, Go и Terraform. Внутренние тесты показывают прирост в 5–8 баллов по сравнению с CodeLlama-34B-Python на HumanEval и конкурентоспособные результаты BugFix благодаря этапу усиления, который поощряет компилируемый вывод. Модель по умолчанию выдает структурированные объяснения вместе с блоками кода, что делает ее подходящей как для образовательных инструментов, так и для сценариев производственных помощников. С точки зрения стоимости, Together AI предлагает ее по цене значительно ниже проприетарных аналогов, поэтому команды могут масштабировать интерактивное кодирование без чрезмерных затрат.

33К контекст·от 40,82 ₽