Модели
368 моделей
OpenAI: GPT-4o
Рекомендуемopenai/gpt-4o
GPT-4o («o» от «omni») — это новейшая модель ИИ от OpenAI, поддерживающая ввод текста и изображений с выводом текста. Она сохраняет уровень интеллекта [GPT-4 Turbo](/models/openai/gpt-4-turbo), при этом работая вдвое быстрее и будучи на…
- Контекст
- 128К
- Вход
- 204,10 ₽/М
- Выход
- 816,41 ₽/М
от openai · 13 мая 2024 г.
AI21: Jamba Large 1.7
ai21/jamba-large-1.7
Jamba Large 1.7 — это новейшая модель в открытом семействе Jamba, предлагающая улучшения в обоснованности, следовании инструкциям и общей эффективности. Построенная на гибридной архитектуре SSM-Transformer с контекстным окном 256K, она…
- Контекст
- 256К
- Вход
- 163,28 ₽/М
- Выход
- 653,13 ₽/М
от ai21 · 8 авг. 2025 г.
AionLabs: Aion-1.0
aion-labs/aion-1.0
Aion-1.0 — это мультимодельная система, разработанная для высокой производительности в различных задачах, включая рассуждения и кодирование. Она построена на DeepSeek-R1, дополненной другими моделями и техниками, такими как Tree of…
- Контекст
- 131К
- Вход
- 326,56 ₽/М
- Выход
- 653,13 ₽/М
от aion-labs · 4 февр. 2025 г.
AionLabs: Aion-1.0-Mini
aion-labs/aion-1.0-mini
Модель Aion-1.0-Mini с 32 миллиардами параметров является дистиллированной версией модели DeepSeek-R1, разработанной для высокой производительности в областях рассуждений, таких как математика, кодирование и логика. Это модифицированный…
- Контекст
- 131К
- Вход
- 57,15 ₽/М
- Выход
- 114,30 ₽/М
от aion-labs · 4 февр. 2025 г.
AionLabs: Aion-2.0
aion-labs/aion-2.0
Aion-2.0 — это вариант DeepSeek V3.2, оптимизированный для иммерсивных ролевых игр и сторителлинга. Он особенно силен в привнесении напряжения, кризисов и конфликтов в истории, делая повествование более увлекательным. Он также обрабатывает…
- Контекст
- 131К
- Вход
- 65,31 ₽/М
- Выход
- 130,63 ₽/М
от aion-labs · 23 февр. 2026 г.
AionLabs: Aion-RP 1.0 (8B)
aion-labs/aion-rp-llama-3.1-8b
Aion-RP-Llama-3.1-8B занимает наивысшее место в части оценки персонажей бенчмарка RPBench-Auto, варианта Arena-Hard-Auto, специфичного для ролевых игр, где LLM оценивают ответы друг друга. Это базовая модель, прошедшая fine-tuning, а не…
- Контекст
- 33К
- Вход
- 65,31 ₽/М
- Выход
- 130,63 ₽/М
от aion-labs · 4 февр. 2025 г.
AlfredPros: CodeLLaMa 7B Instruct Solidity
alfredpros/codellama-7b-instruct-solidity
Тонко настроенная 7-миллиардная модель Code LLaMA - Instruct для генерации смарт-контрактов Solidity с использованием 4-битной QLoRA тонкой настройки, предоставленной библиотекой PEFT.
- Контекст
- 4К
- Вход
- 65,31 ₽/М
- Выход
- 97,97 ₽/М
от alfredpros · 14 апр. 2025 г.
AllenAI: Olmo 3 32B Think
allenai/olmo-3-32b-think
Olmo 3 32B Think — это крупномасштабная модель с 32 миллиардами параметров, специально разработанная для глубоких рассуждений, сложных логических цепочек и продвинутых сценариев следования инструкциям. Её возможности обеспечивают высокую…
- Контекст
- 66К
- Вход
- 12,25 ₽/М
- Выход
- 40,82 ₽/М
от allenai · 21 нояб. 2025 г.
AllenAI: Olmo 3.1 32B Instruct
allenai/olmo-3.1-32b-instruct
Olmo 3.1 32B Instruct — это крупномасштабная языковая модель с 32 миллиардами параметров, настроенная на выполнение инструкций и разработанная для высокопроизводительного разговорного ИИ, многоходовых диалогов и практического следования…
- Контекст
- 66К
- Вход
- 16,33 ₽/М
- Выход
- 48,98 ₽/М
от allenai · 6 янв. 2026 г.
Amazon: Nova 2 Lite
amazon/nova-2-lite-v1
Nova 2 Lite — это быстрая и экономичная модель рассуждений для повседневных рабочих нагрузок, которая может обрабатывать текст, изображения и видео для генерации текста.
- Контекст
- 1.0М
- Вход
- 24,49 ₽/М
- Выход
- 204,10 ₽/М
от amazon · 2 дек. 2025 г.
Amazon: Nova Lite 1.0
amazon/nova-lite-v1
Amazon Nova Lite 1.0 — это очень недорогая мультимодальная модель от Amazon, ориентированная на быструю обработку изображений, видео и текстовых входных данных для генерации текстовых выходных данных. Amazon Nova Lite может обрабатывать…
- Контекст
- 300К
- Вход
- 4,90 ₽/М
- Выход
- 19,59 ₽/М
от amazon · 5 дек. 2024 г.
Amazon: Nova Micro 1.0
amazon/nova-micro-v1
Amazon Nova Micro 1.0 — это текстовая модель, которая обеспечивает наименьшую задержку ответа в семействе моделей Amazon Nova при очень низкой стоимости. Обладая длиной контекста в 128 тыс. токенов и оптимизированная по скорости и…
- Контекст
- 128К
- Вход
- 2,86 ₽/М
- Выход
- 11,43 ₽/М
от amazon · 5 дек. 2024 г.
Amazon: Nova Premier 1.0
amazon/nova-premier-v1
Amazon Nova Premier — самая мощная из мультиканальных моделей Amazon для решения сложных задач рассуждения и для использования в качестве лучшего учителя для дистилляции пользовательских моделей.
- Контекст
- 1.0М
- Вход
- 204,10 ₽/М
- Выход
- 1 020,51 ₽/М
от amazon · 31 окт. 2025 г.
Amazon: Nova Pro 1.0
amazon/nova-pro-v1
Amazon Nova Pro 1.0 — это мощная мультимодальная модель от Amazon, ориентированная на обеспечение сочетания точности, скорости и стоимости для широкого круга задач. По состоянию на декабрь 2024 года она достигает самых современных…
- Контекст
- 300К
- Вход
- 65,31 ₽/М
- Выход
- 261,25 ₽/М
от amazon · 5 дек. 2024 г.
Anthropic Claude Haiku Latest
~anthropic/claude-haiku-latest
Эта модель всегда перенаправляет на последнюю модель из семейства Anthropic Claude Haiku.
- Контекст
- 200К
- Вход
- 81,64 ₽/М
- Выход
- 408,21 ₽/М
от ~anthropic · 27 апр. 2026 г.
Anthropic Claude Sonnet Latest
~anthropic/claude-sonnet-latest
Эта модель всегда перенаправляет на последнюю модель из семейства Anthropic Claude Sonnet.
- Контекст
- 1.0М
- Вход
- 244,92 ₽/М
- Выход
- 1 224,62 ₽/М
от ~anthropic · 27 апр. 2026 г.
Anthropic: Claude 3 Haiku
anthropic/claude-3-haiku
Claude 3 Haiku — это самая быстрая и компактная модель Anthropic для почти мгновенного отклика. Быстрая и точная целевая производительность.
- Контекст
- 200К
- Вход
- 20,41 ₽/М
- Выход
- 102,05 ₽/М
от anthropic · 13 мар. 2024 г.
Anthropic: Claude 3.5 Haiku
anthropic/claude-3.5-haiku
Claude 3.5 Haiku предлагает расширенные возможности в скорости, точности кодирования и использовании инструментов. Разработанная для превосходной работы в приложениях реального времени, она обеспечивает быстрое время отклика, что крайне…
- Контекст
- 200К
- Вход
- 65,31 ₽/М
- Выход
- 326,56 ₽/М
от anthropic · 4 нояб. 2024 г.
Anthropic: Claude 3.7 Sonnet
anthropic/claude-3.7-sonnet
Claude 3.7 Sonnet — это передовая большая языковая модель с улучшенными возможностями рассуждения, кодирования и решения проблем. Она представляет гибридный подход к рассуждению, позволяя пользователям выбирать между быстрыми ответами и…
- Контекст
- 200К
- Вход
- 244,92 ₽/М
- Выход
- 1 224,62 ₽/М
от anthropic · 24 февр. 2025 г.
Anthropic: Claude 3.7 Sonnet (thinking)
anthropic/claude-3.7-sonnet:thinking
Claude 3.7 Sonnet — это продвинутая большая языковая модель с улучшенными возможностями рассуждения, кодирования и решения проблем. Она представляет гибридный подход к рассуждениям, позволяя пользователям выбирать между быстрыми ответами…
- Контекст
- 200К
- Вход
- 244,92 ₽/М
- Выход
- 1 224,62 ₽/М
от anthropic · 24 февр. 2025 г.
Anthropic: Claude Haiku 4.5
anthropic/claude-haiku-4.5
Claude Haiku 4.5 — это самая быстрая и эффективная модель Anthropic, обеспечивающая интеллект, близкий к передовому, при значительно меньших затратах и задержках по сравнению с более крупными моделями Claude. Соответствуя…
- Контекст
- 200К
- Вход
- 81,64 ₽/М
- Выход
- 408,21 ₽/М
от anthropic · 15 окт. 2025 г.
Anthropic: Claude Opus 4
anthropic/claude-opus-4
Claude Opus 4 признан лучшей в мире моделью для кодирования на момент выпуска, обеспечивая стабильную производительность в сложных, длительных задачах и агентских рабочих процессах. Он устанавливает новые стандарты в разработке…
- Контекст
- 200К
- Вход
- 1 224,62 ₽/М
- Выход
- 6 123,08 ₽/М
от anthropic · 22 мая 2025 г.
Anthropic: Claude Opus 4.1
anthropic/claude-opus-4.1
Claude Opus 4.1 — это обновленная версия флагманской модели Anthropic, предлагающая улучшенную производительность в задачах кодирования, рассуждения и агентных задачах. Она достигает 74,5% на SWE-bench Verified и демонстрирует заметные…
- Контекст
- 200К
- Вход
- 1 224,62 ₽/М
- Выход
- 6 123,08 ₽/М
от anthropic · 5 авг. 2025 г.
Anthropic: Claude Opus 4.5
anthropic/claude-opus-4.5
Claude Opus 4.5 — это передовая модель рассуждений от Anthropic, оптимизированная для сложной разработки программного обеспечения, агентных рабочих процессов и длительного использования компьютера. Она предлагает мощные мультимодальные…
- Контекст
- 200К
- Вход
- 408,21 ₽/М
- Выход
- 2 041,03 ₽/М
от anthropic · 24 нояб. 2025 г.
Anthropic: Claude Opus 4.6
anthropic/claude-opus-4.6
Opus 4.6 — это самая мощная модель Anthropic для кодирования и выполнения длительных профессиональных задач. Она создана для агентов, которые работают с целыми рабочими процессами, а не с отдельными запросами, что делает ее особенно…
- Контекст
- 1.0М
- Вход
- 408,21 ₽/М
- Выход
- 2 041,03 ₽/М
от anthropic · 4 февр. 2026 г.
Anthropic: Claude Opus 4.6 (Fast)
anthropic/claude-opus-4.6-fast
Вариант [Opus 4.6](/anthropic/claude-opus-4.6) в быстром режиме — идентичные возможности с более высокой скоростью вывода по премиальной цене, в 6 раз превышающей обычную.
- Контекст
- 1.0М
- Вход
- 2 449,23 ₽/М
- Выход
- 12 246,15 ₽/М
от anthropic · 7 апр. 2026 г.
Anthropic: Claude Opus 4.7
anthropic/claude-opus-4.7
Opus 4.7 — это следующее поколение семейства Opus от Anthropic, созданное для долгосрочных, асинхронных агентов. Основываясь на сильных сторонах Opus 4.6 в области кодирования и агентских возможностей, он обеспечивает более высокую…
- Контекст
- 1.0М
- Вход
- 408,21 ₽/М
- Выход
- 2 041,03 ₽/М
от anthropic · 16 апр. 2026 г.
Anthropic: Claude Opus Latest
~anthropic/claude-opus-latest
Эта модель всегда перенаправляется на последнюю модель семейства Claude Opus.
- Контекст
- 1.0М
- Вход
- 408,21 ₽/М
- Выход
- 2 041,03 ₽/М
от ~anthropic · 21 апр. 2026 г.
Anthropic: Claude Sonnet 4
anthropic/claude-sonnet-4
Claude Sonnet 4 значительно расширяет возможности своего предшественника, Sonnet 3.7, превосходя его как в задачах кодирования, так и в задачах рассуждения с улучшенной точностью и управляемостью. Достигая самых современных показателей…
- Контекст
- 1.0М
- Вход
- 244,92 ₽/М
- Выход
- 1 224,62 ₽/М
от anthropic · 22 мая 2025 г.
Anthropic: Claude Sonnet 4.5
anthropic/claude-sonnet-4.5
Claude Sonnet 4.5 — это самая передовая модель Sonnet от Anthropic на сегодняшний день, оптимизированная для реальных агентов и рабочих процессов кодирования. Она демонстрирует передовую производительность в тестах кодирования, таких как…
- Контекст
- 1.0М
- Вход
- 244,92 ₽/М
- Выход
- 1 224,62 ₽/М
от anthropic · 29 сент. 2025 г.
Anthropic: Claude Sonnet 4.6
anthropic/claude-sonnet-4.6
Sonnet 4.6 — это самая мощная модель класса Sonnet от Anthropic на сегодняшний день, демонстрирующая передовую производительность в кодировании, работе с агентами и профессиональной деятельности. Она превосходно справляется с итеративной…
- Контекст
- 1.0М
- Вход
- 244,92 ₽/М
- Выход
- 1 224,62 ₽/М
от anthropic · 17 февр. 2026 г.
Arcee AI: Coder Large
arcee-ai/coder-large
Coder-Large — это модель с 32 миллиардами параметров, разработанная на основе Qwen 2.5-Instruct, которая была дополнительно обучена на корпусах GitHub, CodeSearchNet и синтетических исправлениях ошибок с разрешительной лицензией. Она…
- Контекст
- 33К
- Вход
- 40,82 ₽/М
- Выход
- 65,31 ₽/М
от arcee-ai · 5 мая 2025 г.
Arcee AI: Maestro Reasoning
arcee-ai/maestro-reasoning
Maestro Reasoning — это флагманская аналитическая модель Arcee: производная Qwen 2.5-32B с 32 миллиардами параметров, настроенная с использованием DPO и chain-of-thought RL для пошаговой логики. По сравнению с более ранней 7B…
- Контекст
- 131К
- Вход
- 73,48 ₽/М
- Выход
- 269,42 ₽/М
от arcee-ai · 5 мая 2025 г.
Arcee AI: Spotlight
arcee-ai/spotlight
Spotlight — это 7-миллиардная vision-language модель, разработанная на основе Qwen 2.5-VL и доработанная компанией Arcee AI для задач точного сопоставления изображений и текста. Она предлагает контекстное окно размером 32k токенов, что…
- Контекст
- 131К
- Вход
- 14,70 ₽/М
- Выход
- 14,70 ₽/М
от arcee-ai · 5 мая 2025 г.
Arcee AI: Trinity Large Preview
arcee-ai/trinity-large-preview
Trinity-Large-Preview — это передовая языковая модель с открытым весом от Arcee, построенная как разреженная Mixture-of-Experts с 400 миллиардами параметров и 13 миллиардами активных параметров на токен, использующая маршрутизацию 4 из 256…
- Контекст
- 131К
- Вход
- 12,25 ₽/М
- Выход
- 36,74 ₽/М
от arcee-ai · 27 янв. 2026 г.
Arcee AI: Trinity Large Thinking
arcee-ai/trinity-large-thinking
Trinity Large Thinking — это мощная открытая модель рассуждений от команды Arcee AI. Она демонстрирует высокую производительность в PinchBench, агентских рабочих нагрузках и задачах рассуждения. Видео запуска:…
- Контекст
- 262К
- Вход
- 17,96 ₽/М
- Выход
- 69,39 ₽/М
от arcee-ai · 1 апр. 2026 г.
Arcee AI: Trinity Mini
arcee-ai/trinity-mini
Trinity Mini — это языковая модель с разреженной смесью экспертов (MoE) с 26 миллиардами параметров (3 миллиарда активных), включающая 128 экспертов, из которых 8 активны на каждый токен. Разработана для эффективного рассуждения в длинных…
- Контекст
- 131К
- Вход
- 3,67 ₽/М
- Выход
- 12,25 ₽/М
от arcee-ai · 1 дек. 2025 г.
Arcee AI: Virtuoso Large
arcee-ai/virtuoso-large
Virtuoso-Large — это флагманская универсальная LLM от Arcee с 72 миллиардами параметров, настроенная для решения задач кросс-доменного рассуждения, творческого письма и корпоративного QA. В отличие от многих 70-миллиардных аналогов, она…
- Контекст
- 131К
- Вход
- 61,23 ₽/М
- Выход
- 97,97 ₽/М
от arcee-ai · 5 мая 2025 г.
Baidu: ERNIE 4.5 21B A3B
baidu/ernie-4.5-21b-a3b
Сложная текстовая модель Mixture-of-Experts (MoE) с общим количеством параметров 21B и 3B активированными на токен, обеспечивающая исключительное мультимодальное понимание и генерацию благодаря гетерогенным структурам MoE и маршрутизации,…
- Контекст
- 120К
- Вход
- 5,71 ₽/М
- Выход
- 22,86 ₽/М
от baidu · 12 авг. 2025 г.
Baidu: ERNIE 4.5 21B A3B Thinking
baidu/ernie-4.5-21b-a3b-thinking
ERNIE-4.5-21B-A3B-Thinking — это обновленная облегченная модель MoE от Baidu, усовершенствованная для повышения глубины и качества рассуждений с целью достижения наивысшей производительности в логических головоломках, математике,…
- Контекст
- 131К
- Вход
- 5,71 ₽/М
- Выход
- 22,86 ₽/М
от baidu · 9 окт. 2025 г.
Baidu: ERNIE 4.5 300B A47B
baidu/ernie-4.5-300b-a47b
ERNIE-4.5-300B-A47B — это языковая модель Mixture-of-Experts (MoE) с 300 миллиардами параметров, разработанная Baidu как часть серии ERNIE 4.5. Она активирует 47 миллиардов параметров на токен и поддерживает генерацию текста как на…
- Контекст
- 123К
- Вход
- 22,86 ₽/М
- Выход
- 89,81 ₽/М
от baidu · 30 июн. 2025 г.
Baidu: ERNIE 4.5 VL 28B A3B
baidu/ernie-4.5-vl-28b-a3b
Мощная мультимодальная чат-модель Mixture-of-Experts с общим количеством параметров 28B, из которых 3B активируются на каждый токен, обеспечивающая исключительное понимание текста и изображений благодаря инновационной гетерогенной…
- Контекст
- 30К
- Вход
- 11,43 ₽/М
- Выход
- 45,72 ₽/М
от baidu · 12 авг. 2025 г.
Baidu: ERNIE 4.5 VL 424B A47B
baidu/ernie-4.5-vl-424b-a47b
ERNIE-4.5-VL-424B-A47B — это мультимодальная модель Mixture-of-Experts (MoE) из серии ERNIE 4.5 от Baidu, имеющая 424 миллиарда общих параметров, из которых 47 миллиардов активны на каждый токен. Она обучена совместно на текстовых и…
- Контекст
- 123К
- Вход
- 34,29 ₽/М
- Выход
- 102,05 ₽/М
от baidu · 30 июн. 2025 г.
Baidu: Qianfan-OCR-Fast (free)
baidu/qianfan-ocr-fast:free
Qianfan-OCR-Fast — это предметно-ориентированная мультимодальная большая модель, специально разработанная для оптического распознавания символов (OCR). Используя специализированные обучающие данные для OCR и сохраняя универсальный…
- Контекст
- 66К
- Вход
- бесплатно/М
- Выход
- бесплатно/М
от baidu · 20 апр. 2026 г.
ByteDance Seed: Seed 1.6
bytedance-seed/seed-1.6
Seed 1.6 — это универсальная модель, выпущенная командой ByteDance Seed. Она включает в себя мультимодальные возможности и адаптивное глубокое мышление с контекстным окном в 256K.
- Контекст
- 262К
- Вход
- 20,41 ₽/М
- Выход
- 163,28 ₽/М
от bytedance-seed · 23 дек. 2025 г.
ByteDance Seed: Seed 1.6 Flash
bytedance-seed/seed-1.6-flash
Seed 1.6 Flash — это сверхбыстрая мультимодальная модель глубокого мышления от ByteDance Seed, поддерживающая как текстовое, так и визуальное понимание. Она имеет контекстное окно размером 256k и может генерировать выходные данные объемом…
- Контекст
- 262К
- Вход
- 6,12 ₽/М
- Выход
- 24,49 ₽/М
от bytedance-seed · 23 дек. 2025 г.
ByteDance Seed: Seed-2.0-Lite
bytedance-seed/seed-2.0-lite
Seed-2.0-Lite — это универсальная, экономичная рабочая лошадка для предприятий, которая обеспечивает мощные мультимодальные и агентные возможности, предлагая при этом заметно меньшую задержку, что делает её практичным выбором по умолчанию…
- Контекст
- 262К
- Вход
- 20,41 ₽/М
- Выход
- 163,28 ₽/М
от bytedance-seed · 10 мар. 2026 г.
ByteDance Seed: Seed-2.0-Mini
bytedance-seed/seed-2.0-mini
Seed-2.0-mini ориентирован на сценарии с низкой задержкой, высокой конкуренцией и чувствительностью к стоимости, делая акцент на быстром отклике и гибком развертывании инференса. Он обеспечивает производительность, сравнимую с…
- Контекст
- 262К
- Вход
- 8,16 ₽/М
- Выход
- 32,66 ₽/М
от bytedance-seed · 26 февр. 2026 г.
ByteDance: UI-TARS 7B
bytedance/ui-tars-1.5-7b
UI-TARS-1.5 — это мультиканальный визуально-языковой агент, оптимизированный для сред с графическим интерфейсом пользователя (GUI), включая настольные интерфейсы, веб-браузеры, мобильные системы и игры. Разработанный ByteDance, он основан…
- Контекст
- 128К
- Вход
- 8,16 ₽/М
- Выход
- 16,33 ₽/М
от bytedance · 22 июл. 2025 г.
Cohere: Command A
cohere/command-a
Command A — это модель с открытым весом и 111 миллиардами параметров с контекстным окном 256k, ориентированная на обеспечение высокой производительности в агентских, многоязычных и кодовых сценариях использования. По сравнению с другими…
- Контекст
- 256К
- Вход
- 204,10 ₽/М
- Выход
- 816,41 ₽/М
от cohere · 13 мар. 2025 г.
Cohere: Command R (08-2024)
cohere/command-r-08-2024
command-r-08-2024 — это обновление [Command R](/models/cohere/command-r) с улучшенной производительностью для многоязычной генерации с дополненным поиском (RAG) и использования инструментов. В более широком смысле, он лучше справляется с…
- Контекст
- 128К
- Вход
- 12,25 ₽/М
- Выход
- 48,98 ₽/М
от cohere · 30 авг. 2024 г.
Cohere: Command R+ (08-2024)
cohere/command-r-plus-08-2024
command-r-plus-08-2024 — это обновление [Command R+](/models/cohere/command-r-plus) с пропускной способностью примерно на 50% выше и задержками на 25% ниже по сравнению с предыдущей версией Command R+, при этом аппаратные требования…
- Контекст
- 128К
- Вход
- 204,10 ₽/М
- Выход
- 816,41 ₽/М
от cohere · 30 авг. 2024 г.
Cohere: Command R7B (12-2024)
cohere/command-r7b-12-2024
Command R7B (12-2024) — это небольшое, быстрое обновление модели Command R+, выпущенное в декабре 2024 года. Оно превосходно справляется с RAG, использованием инструментов, агентами и аналогичными задачами, требующими сложного рассуждения…
- Контекст
- 128К
- Вход
- 3,06 ₽/М
- Выход
- 12,25 ₽/М
от cohere · 14 дек. 2024 г.
Deep Cogito: Cogito v2.1 671B
deepcogito/cogito-v2.1-671b
Cogito v2.1 671B MoE представляет собой одну из сильнейших открытых моделей в мире, соответствующую производительности передовых закрытых и открытых моделей. Эта модель обучена с использованием самообучения с подкреплением для достижения…
- Контекст
- 128К
- Вход
- 102,05 ₽/М
- Выход
- 102,05 ₽/М
от deepcogito · 13 нояб. 2025 г.
DeepSeek: DeepSeek V3
deepseek/deepseek-chat
DeepSeek-V3 — это новейшая модель от команды DeepSeek, основанная на возможностях следования инструкциям и написания кода предыдущих версий. Предварительно обученная на почти 15 триллионах токенов, согласно опубликованным оценкам, модель…
- Контекст
- 164К
- Вход
- 26,13 ₽/М
- Выход
- 72,66 ₽/М
от deepseek · 26 дек. 2024 г.
DeepSeek: DeepSeek V3 0324
deepseek/deepseek-chat-v3-0324
DeepSeek V3, модель с 685 миллиардами параметров и архитектурой Mixture-of-Experts, является последней итерацией флагманского семейства чат-моделей от команды DeepSeek.
- Контекст
- 164К
- Вход
- 16,33 ₽/М
- Выход
- 62,86 ₽/М
от deepseek · 24 мар. 2025 г.
DeepSeek: DeepSeek V3.1
deepseek/deepseek-chat-v3.1
DeepSeek-V3.1 — это большая гибридная модель рассуждений (671B параметров, 37B активных), которая поддерживает как режимы мышления, так и не-мышления с помощью шаблонов prompt. Она расширяет базовую модель DeepSeek-V3 двухфазным процессом…
- Контекст
- 33К
- Вход
- 12,25 ₽/М
- Выход
- 61,23 ₽/М
от deepseek · 21 авг. 2025 г.
DeepSeek: DeepSeek V3.1 Terminus
deepseek/deepseek-v3.1-terminus
DeepSeek-V3.1 Terminus — это обновление [DeepSeek V3.1](/deepseek/deepseek-chat-v3.1), которое сохраняет исходные возможности модели, одновременно устраняя проблемы, о которых сообщали пользователи, включая языковую согласованность и…
- Контекст
- 164К
- Вход
- 17,14 ₽/М
- Выход
- 64,50 ₽/М
от deepseek · 22 сент. 2025 г.
DeepSeek: DeepSeek V3.2
deepseek/deepseek-v3.2
DeepSeek-V3.2 — это большая языковая модель, разработанная для гармоничного сочетания высокой вычислительной эффективности с мощными возможностями рассуждения и использования инструментов агентами. Она представляет DeepSeek Sparse…
- Контекст
- 131К
- Вход
- 20,57 ₽/М
- Выход
- 30,86 ₽/М
от deepseek · 1 дек. 2025 г.
DeepSeek: DeepSeek V3.2 Exp
deepseek/deepseek-v3.2-exp
DeepSeek-V3.2-Exp — это экспериментальная большая языковая модель, выпущенная DeepSeek в качестве промежуточного шага между V3.1 и будущими архитектурами. Она представляет DeepSeek Sparse Attention (DSA), мелкозернистый механизм…
- Контекст
- 164К
- Вход
- 22,04 ₽/М
- Выход
- 33,47 ₽/М
от deepseek · 29 сент. 2025 г.
DeepSeek: DeepSeek V3.2 Speciale
deepseek/deepseek-v3.2-speciale
DeepSeek-V3.2-Speciale — это высокопроизводительный вариант DeepSeek-V3.2, оптимизированный для максимальной производительности в рассуждениях и агентных задачах. Он основан на DeepSeek Sparse Attention (DSA) для эффективной обработки…
- Контекст
- 164К
- Вход
- 32,66 ₽/М
- Выход
- 97,97 ₽/М
от deepseek · 1 дек. 2025 г.
DeepSeek: DeepSeek V4 Flash
deepseek/deepseek-v4-flash
DeepSeek V4 Flash — это оптимизированная по эффективности модель Mixture-of-Experts от DeepSeek с общим количеством параметров 284B и 13B активированных параметров, поддерживающая контекстное окно в 1M токенов. Она разработана для быстрого…
- Контекст
- 1.0М
- Вход
- 11,43 ₽/М
- Выход
- 22,86 ₽/М
от deepseek · 24 апр. 2026 г.
DeepSeek: DeepSeek V4 Pro
deepseek/deepseek-v4-pro
DeepSeek V4 Pro — это крупномасштабная модель Mixture-of-Experts от DeepSeek с общим количеством параметров 1,6T и 49B активированных параметров, поддерживающая контекстное окно в 1M токенов. Она разработана для продвинутого рассуждения,…
- Контекст
- 1.0М
- Вход
- 35,51 ₽/М
- Выход
- 71,03 ₽/М
от deepseek · 24 апр. 2026 г.
DeepSeek: R1
deepseek/deepseek-r1
DeepSeek R1 уже здесь: производительность на уровне [OpenAI o1](/openai/o1), но с открытым исходным кодом и полностью открытыми токенами рассуждений. Он имеет 671 миллиард параметров, из которых 37 миллиардов активны при проходе вывода.
- Контекст
- 64К
- Вход
- 57,15 ₽/М
- Выход
- 204,10 ₽/М
от deepseek · 20 янв. 2025 г.
DeepSeek: R1 0528
deepseek/deepseek-r1-0528
Обновление от 28 мая к [оригинальному DeepSeek R1](/deepseek/deepseek-r1). Производительность наравне с [OpenAI o1](/openai/o1), но с открытым исходным кодом и полностью открытыми токенами рассуждений. Размер модели составляет 671B…
- Контекст
- 164К
- Вход
- 40,82 ₽/М
- Выход
- 175,53 ₽/М
от deepseek · 28 мая 2025 г.
DeepSeek: R1 Distill Llama 70B
deepseek/deepseek-r1-distill-llama-70b
DeepSeek R1 Distill Llama 70B — это дистиллированная большая языковая модель, основанная на [Llama-3.3-70B-Instruct](/meta-llama/llama-3.3-70b-instruct), использующая выходные данные [DeepSeek R1](/deepseek/deepseek-r1). Модель сочетает в…
- Контекст
- 131К
- Вход
- 57,15 ₽/М
- Выход
- 65,31 ₽/М
от deepseek · 23 янв. 2025 г.
DeepSeek: R1 Distill Qwen 32B
deepseek/deepseek-r1-distill-qwen-32b
DeepSeek R1 Distill Qwen 32B is a distilled large language model based on [Qwen 2.5 32B](https://huggingface.co/Qwen/Qwen2.5-32B), using outputs from [DeepSeek R1](/deepseek/deepseek-r1). It outperforms OpenAI's o1-mini across various…
- Контекст
- 33К
- Вход
- 23,68 ₽/М
- Выход
- 23,68 ₽/М
от deepseek · 29 янв. 2025 г.
EssentialAI: Rnj 1 Instruct
essentialai/rnj-1-instruct
Rnj-1 — это семейство плотных моделей с открытым исходным кодом и 8 миллиардами параметров, разработанное Essential AI и обученное с нуля с акцентом на программирование, математику и научные рассуждения. Модель демонстрирует высокую…
- Контекст
- 33К
- Вход
- 12,25 ₽/М
- Выход
- 12,25 ₽/М
от essentialai · 7 дек. 2025 г.
Free Models Router
openrouter/free
Самый простой способ получить бесплатный инференс. `openrouter/free` — это маршрутизатор, который случайным образом выбирает бесплатные модели из моделей, доступных на OpenRouter. Маршрутизатор интеллектуально фильтрует модели,…
- Контекст
- 200К
- Вход
- бесплатно/М
- Выход
- бесплатно/М
от openrouter · 1 февр. 2026 г.
Goliath 120B
alpindale/goliath-120b
Большая LLM, созданная путем объединения двух дообученных моделей Llama 70B в одну модель 120B. Объединяет Xwin и Euryale.
- Контекст
- 6К
- Вход
- 306,15 ₽/М
- Выход
- 612,31 ₽/М
от alpindale · 10 нояб. 2023 г.
Google Gemini Flash Latest
~google/gemini-flash-latest
Эта модель всегда перенаправляет на последнюю модель из семейства Google Gemini Flash.
- Контекст
- 1.0М
- Вход
- 40,82 ₽/М
- Выход
- 244,92 ₽/М
от ~google · 27 апр. 2026 г.
Google Gemini Pro Latest
~google/gemini-pro-latest
Эта модель всегда перенаправляет на последнюю модель семейства Google Gemini Pro.
- Контекст
- 1.0М
- Вход
- 163,28 ₽/М
- Выход
- 979,69 ₽/М
от ~google · 27 апр. 2026 г.
Google: Gemini 2.0 Flash
google/gemini-2.0-flash-001
Gemini Flash 2.0 предлагает значительно более быстрое время до первого токена (TTFT) по сравнению с [Gemini Flash 1.5](/google/gemini-flash-1.5), при этом сохраняя качество на уровне более крупных моделей, таких как [Gemini Pro…
- Контекст
- 1.0М
- Вход
- 8,16 ₽/М
- Выход
- 32,66 ₽/М
от google · 5 февр. 2025 г.
Google: Gemini 2.0 Flash Lite
google/gemini-2.0-flash-lite-001
Gemini 2.0 Flash Lite предлагает значительно более быстрое время до первого токена (TTFT) по сравнению с [Gemini Flash 1.5](/google/gemini-flash-1.5), сохраняя при этом качество на уровне более крупных моделей, таких как [Gemini Pro…
- Контекст
- 1.0М
- Вход
- 6,12 ₽/М
- Выход
- 24,49 ₽/М
от google · 25 февр. 2025 г.
Google: Gemini 2.5 Flash
google/gemini-2.5-flash
Gemini 2.5 Flash — это передовая рабочая модель Google, специально разработанная для решения сложных задач в области рассуждений, кодирования, математики и науки. Она включает встроенные возможности «мышления», что позволяет ей…
- Контекст
- 1.0М
- Вход
- 24,49 ₽/М
- Выход
- 204,10 ₽/М
от google · 17 июн. 2025 г.
Google: Gemini 2.5 Flash Lite
google/gemini-2.5-flash-lite
Gemini 2.5 Flash-Lite — это легковесная модель рассуждений в семействе Gemini 2.5, оптимизированная для сверхнизкой задержки и экономичности. Она предлагает улучшенную пропускную способность, более быструю генерацию токенов и лучшую…
- Контекст
- 1.0М
- Вход
- 8,16 ₽/М
- Выход
- 32,66 ₽/М
от google · 22 июл. 2025 г.
Google: Gemini 2.5 Flash Lite Preview 09-2025
google/gemini-2.5-flash-lite-preview-09-2025
Gemini 2.5 Flash-Lite — это легковесная модель рассуждений в семействе Gemini 2.5, оптимизированная для сверхнизкой задержки и экономичности. Она предлагает улучшенную пропускную способность, более быструю генерацию токенов и лучшую…
- Контекст
- 1.0М
- Вход
- 8,16 ₽/М
- Выход
- 32,66 ₽/М
от google · 25 сент. 2025 г.
Google: Gemini 2.5 Pro
google/gemini-2.5-pro
Gemini 2.5 Pro — это передовая модель ИИ от Google, разработанная для решения сложных задач в области рассуждений, кодирования, математики и науки. Она использует возможности «мышления», что позволяет ей рассуждать при формировании ответов…
- Контекст
- 1.0М
- Вход
- 102,05 ₽/М
- Выход
- 816,41 ₽/М
от google · 17 июн. 2025 г.
Google: Gemini 2.5 Pro Preview 05-06
google/gemini-2.5-pro-preview-05-06
Gemini 2.5 Pro — это передовая модель ИИ от Google, разработанная для решения сложных задач в области рассуждений, кодирования, математики и науки. Она использует возможности «мышления», позволяющие ей рассуждать при формировании ответов с…
- Контекст
- 1.0М
- Вход
- 102,05 ₽/М
- Выход
- 816,41 ₽/М
от google · 7 мая 2025 г.
Google: Gemini 2.5 Pro Preview 06-05
google/gemini-2.5-pro-preview
Gemini 2.5 Pro — это передовая модель ИИ от Google, разработанная для решения сложных задач в области рассуждений, кодирования, математики и науки. Она использует возможности «мышления», позволяющие ей рассуждать над ответами с повышенной…
- Контекст
- 1.0М
- Вход
- 102,05 ₽/М
- Выход
- 816,41 ₽/М
от google · 5 июн. 2025 г.
Google: Gemini 3 Flash Preview
google/gemini-3-flash-preview
Gemini 3 Flash Preview — это высокоскоростная, высокоэффективная модель мышления, разработанная для агентских рабочих процессов, многоходовых чатов и помощи в кодировании. Она обеспечивает производительность рассуждений и использования…
- Контекст
- 1.0М
- Вход
- 40,82 ₽/М
- Выход
- 244,92 ₽/М
от google · 17 дек. 2025 г.
Google: Gemini 3.1 Flash Lite Preview
google/gemini-3.1-flash-lite-preview
Gemini 3.1 Flash Lite Preview — это высокоэффективная модель Google, оптимизированная для сценариев использования с большим объемом данных. Она превосходит Gemini 2.5 Flash Lite по общему качеству и приближается к производительности Gemini…
- Контекст
- 1.0М
- Вход
- 20,41 ₽/М
- Выход
- 122,46 ₽/М
от google · 3 мар. 2026 г.
Google: Gemini 3.1 Pro Preview
google/gemini-3.1-pro-preview
Gemini 3.1 Pro Preview — это передовая модель рассуждений от Google, обеспечивающая повышенную производительность в разработке программного обеспечения, улучшенную надёжность агентов и более эффективное использование токенов в сложных…
- Контекст
- 1.0М
- Вход
- 163,28 ₽/М
- Выход
- 979,69 ₽/М
от google · 19 февр. 2026 г.
Google: Gemini 3.1 Pro Preview Custom Tools
google/gemini-3.1-pro-preview-customtools
Gemini 3.1 Pro Preview Custom Tools — это вариант Gemini 3.1 Pro, который улучшает поведение выбора инструментов, предотвращая чрезмерное использование общего инструмента bash, когда доступны более эффективные сторонние или…
- Контекст
- 1.0М
- Вход
- 163,28 ₽/М
- Выход
- 979,69 ₽/М
от google · 25 февр. 2026 г.
Google: Gemma 2 27B
google/gemma-2-27b-it
Gemma 2 27B от Google — это открытая модель, созданная на основе тех же исследований и технологий, которые использовались для создания [моделей Gemini](/models?q=gemini).
- Контекст
- 8К
- Вход
- 53,07 ₽/М
- Выход
- 53,07 ₽/М
от google · 13 июл. 2024 г.
Google: Gemma 3 12B
google/gemma-3-12b-it
Gemma 3 представляет мультимодальность, поддерживая визуально-языковой ввод и текстовый вывод. Она обрабатывает контекстные окна до 128 тысяч токенов, понимает более 140 языков и предлагает улучшенные математические, логические и…
- Контекст
- 131К
- Вход
- 3,27 ₽/М
- Выход
- 10,61 ₽/М
от google · 13 мар. 2025 г.
Google: Gemma 3 12B (free)
google/gemma-3-12b-it:free
Gemma 3 представляет мультимодальность, поддерживая визуально-языковой ввод и текстовый вывод. Она обрабатывает контекстные окна до 128 тысяч токенов, понимает более 140 языков и предлагает улучшенные математические, логические и…
- Контекст
- 33К
- Вход
- бесплатно/М
- Выход
- бесплатно/М
от google · 13 мар. 2025 г.
Google: Gemma 3 27B
google/gemma-3-27b-it
Gemma 3 представляет мультимодальность, поддерживая ввод изображений и текста, а также текстовые выводы. Она обрабатывает контекстные окна до 128 тысяч токенов, понимает более 140 языков и предлагает улучшенные математические, логические и…
- Контекст
- 131К
- Вход
- 6,53 ₽/М
- Выход
- 13,06 ₽/М
от google · 12 мар. 2025 г.
Google: Gemma 3 27B (free)
google/gemma-3-27b-it:free
Gemma 3 представляет мультимодальность, поддерживая визуально-языковой ввод и текстовый вывод. Она обрабатывает контекстные окна до 128 тысяч токенов, понимает более 140 языков и предлагает улучшенные математические, логические и…
- Контекст
- 131К
- Вход
- бесплатно/М
- Выход
- бесплатно/М
от google · 12 мар. 2025 г.
Google: Gemma 3 4B
google/gemma-3-4b-it
Gemma 3 представляет мультимодальность, поддерживая визуально-языковой ввод и текстовый вывод. Она обрабатывает контекстные окна до 128 тысяч токенов, понимает более 140 языков и предлагает улучшенные математические, логические и…
- Контекст
- 131К
- Вход
- 3,27 ₽/М
- Выход
- 6,53 ₽/М
от google · 13 мар. 2025 г.
Google: Gemma 3 4B (free)
google/gemma-3-4b-it:free
Gemma 3 представляет мультимодальность, поддерживая визуально-языковой ввод и текстовый вывод. Она обрабатывает контекстные окна до 128 тысяч токенов, понимает более 140 языков и предлагает улучшенные математические, логические и…
- Контекст
- 33К
- Вход
- бесплатно/М
- Выход
- бесплатно/М
от google · 13 мар. 2025 г.
Google: Gemma 3n 2B (free)
google/gemma-3n-e2b-it:free
Gemma 3n E2B IT — это мультимодальная модель, разработанная Google DeepMind, настроенная на выполнение инструкций. Она спроектирована для эффективной работы с размером эффективных параметров 2B, используя при этом архитектуру 6B.…
- Контекст
- 8К
- Вход
- бесплатно/М
- Выход
- бесплатно/М
от google · 9 июл. 2025 г.
Google: Gemma 3n 4B
google/gemma-3n-e4b-it
Gemma 3n E4B-it оптимизирована для эффективного выполнения на мобильных устройствах и устройствах с ограниченными ресурсами, таких как телефоны, ноутбуки и планшеты. Она поддерживает мультимодальные входные данные, включая текст,…
- Контекст
- 33К
- Вход
- 4,90 ₽/М
- Выход
- 9,80 ₽/М
от google · 20 мая 2025 г.
Google: Gemma 3n 4B (free)
google/gemma-3n-e4b-it:free
Gemma 3n E4B-it оптимизирована для эффективного выполнения на мобильных устройствах и устройствах с низкими ресурсами, таких как телефоны, ноутбуки и планшеты. Она поддерживает мультимодальные входные данные, включая текст, визуальные…
- Контекст
- 8К
- Вход
- бесплатно/М
- Выход
- бесплатно/М
от google · 20 мая 2025 г.
Google: Gemma 4 26B A4B
google/gemma-4-26b-a4b-it
Gemma 4 26B A4B IT — это модель Mixture-of-Experts (MoE) от Google DeepMind, настроенная на выполнение инструкций. Несмотря на 25,2 млрд общих параметров, только 3,8 млрд активируются на каждый токен во время вывода — обеспечивая качество,…
- Контекст
- 262К
- Вход
- 4,90 ₽/М
- Выход
- 26,94 ₽/М
от google · 3 апр. 2026 г.
Google: Gemma 4 26B A4B (free)
google/gemma-4-26b-a4b-it:free
Gemma 4 26B A4B IT — это модель Mixture-of-Experts (MoE) от Google DeepMind, настроенная на выполнение инструкций. Несмотря на общее количество параметров в 25,2 млрд, во время инференса на каждый токен активируется только 3,8 млрд, что…
- Контекст
- 262К
- Вход
- бесплатно/М
- Выход
- бесплатно/М
от google · 3 апр. 2026 г.
Google: Gemma 4 31B
google/gemma-4-31b-it
Gemma 4 31B Instruct — это плотная мультимодальная модель Google DeepMind с 30,7 млрд параметров, поддерживающая ввод текста и изображений с выводом текста. Она имеет контекстное окно в 256 тысяч токенов, настраиваемый режим…
- Контекст
- 262К
- Вход
- 10,61 ₽/М
- Выход
- 31,02 ₽/М
от google · 2 апр. 2026 г.
Google: Gemma 4 31B (free)
google/gemma-4-31b-it:free
Gemma 4 31B Instruct — это плотная мультимодальная модель Google DeepMind с 30,7 миллиардами параметров, поддерживающая ввод текста и изображений с выводом текста. Отличается контекстным окном на 256 тысяч токенов, настраиваемым режимом…
- Контекст
- 262К
- Вход
- бесплатно/М
- Выход
- бесплатно/М
от google · 2 апр. 2026 г.
Google: Lyria 3 Clip Preview
google/lyria-3-clip-preview
30-секундные клипы стоят $0.04 за клип. Lyria 3 — это семейство моделей Google для генерации музыки, доступное через Gemini API. С помощью Lyria 3 вы можете генерировать высококачественное стерео аудио с частотой 48 кГц из текстовых…
- Контекст
- 1.0М
- Вход
- бесплатно/М
- Выход
- бесплатно/М
от google · 30 мар. 2026 г.
Google: Lyria 3 Pro Preview
google/lyria-3-pro-preview
Полные песни стоят $0.08 за песню. Lyria 3 — это семейство моделей для генерации музыки от Google, доступное через Gemini API. С помощью Lyria 3 вы можете генерировать высококачественное стерео аудио с частотой 48 кГц из текстовых запросов…
- Контекст
- 1.0М
- Вход
- бесплатно/М
- Выход
- бесплатно/М
от google · 30 мар. 2026 г.
Google: Nano Banana (Gemini 2.5 Flash Image)
google/gemini-2.5-flash-image
Gemini 2.5 Flash Image, также известный как "Nano Banana", теперь общедоступен. Это современная модель генерации изображений с контекстным пониманием. Она способна генерировать изображения, редактировать их и вести многоходовые диалоги.…
- Контекст
- 33К
- Вход
- 24,49 ₽/М
- Выход
- 204,10 ₽/М
от google · 7 окт. 2025 г.
Google: Nano Banana 2 (Gemini 3.1 Flash Image Preview)
google/gemini-3.1-flash-image-preview
Gemini 3.1 Flash Image Preview, также известный как «Nano Banana 2», — это новейшая передовая модель Google для генерации и редактирования изображений, обеспечивающая визуальное качество профессионального уровня со скоростью Flash. Она…
- Контекст
- 66К
- Вход
- 40,82 ₽/М
- Выход
- 244,92 ₽/М
от google · 26 февр. 2026 г.
Google: Nano Banana Pro (Gemini 3 Pro Image Preview)
google/gemini-3-pro-image-preview
Nano Banana Pro — это самая передовая модель Google для генерации и редактирования изображений, построенная на базе Gemini 3 Pro. Она расширяет возможности оригинальной Nano Banana за счет значительно улучшенного мультимодального мышления,…
- Контекст
- 66К
- Вход
- 163,28 ₽/М
- Выход
- 979,69 ₽/М
от google · 20 нояб. 2025 г.
IBM: Granite 4.0 Micro
ibm-granite/granite-4.0-h-micro
Granite-4.0-H-Micro — это модель семейства Granite 4 с 3 миллиардами параметров. Эти модели являются новейшими в серии моделей, выпущенных IBM. Они тонко настроены для вызова инструментов с длинным контекстом.
- Контекст
- 131К
- Вход
- 1,39 ₽/М
- Выход
- 8,98 ₽/М
от ibm-granite · 20 окт. 2025 г.
IBM: Granite 4.1 8B
ibm-granite/granite-4.1-8b
Granite 4.1 8B — это плотная языковая модель с 8 миллиардами параметров от IBM, использующая только декодер, часть семейства Granite 4.1. Она поддерживает контекстное окно в 131K токенов и предназначена для корпоративных задач, включая…
- Контекст
- 131К
- Вход
- 4,08 ₽/М
- Выход
- 8,16 ₽/М
от ibm-granite · 30 апр. 2026 г.
Inception: Mercury 2
inception/mercury-2
Mercury 2 — это чрезвычайно быстрая LLM для рассуждений и первая диффузионная LLM (dLLM) для рассуждений. Вместо последовательной генерации токенов Mercury 2 производит и уточняет несколько токенов параллельно, достигая скорости >1000…
- Контекст
- 128К
- Вход
- 20,41 ₽/М
- Выход
- 61,23 ₽/М
от inception · 4 мар. 2026 г.
inclusionAI: Ling-2.6-1T (free)
inclusionai/ling-2.6-1t:free
Ling-2.6-1T — это мгновенная (инструктивная) модель от inclusionAI и флагманская модель компании с триллионом параметров, разработанная для реальных агентов, которым требуется быстрое выполнение и высокая эффективность в масштабе. Она…
- Контекст
- 262К
- Вход
- бесплатно/М
- Выход
- бесплатно/М
от inclusionai · 23 апр. 2026 г.
inclusionAI: Ling-2.6-flash
inclusionai/ling-2.6-flash
Ling-2.6-flash — это мгновенная (инструктивная) модель от inclusionAI с общим количеством параметров 104B и 7.4B активных параметров, разработанная для реальных агентов, которым требуются быстрые ответы, высокая производительность и…
- Контекст
- 262К
- Вход
- 6,53 ₽/М
- Выход
- 19,59 ₽/М
от inclusionai · 21 апр. 2026 г.
Inflection: Inflection 3 Pi
inflection/inflection-3-pi
Inflection 3 Pi обеспечивает работу чат-бота [Pi](https://pi.ai) от Inflection, включая предысторию, эмоциональный интеллект, продуктивность и безопасность. Он имеет доступ к последним новостям и превосходно справляется со сценариями,…
- Контекст
- 8К
- Вход
- 204,10 ₽/М
- Выход
- 816,41 ₽/М
от inflection · 11 окт. 2024 г.
Inflection: Inflection 3 Productivity
inflection/inflection-3-productivity
Inflection 3 Productivity оптимизирован для следования инструкциям. Он лучше подходит для задач, требующих вывода JSON или точного соблюдения предоставленных рекомендаций. Он имеет доступ к последним новостям.
- Контекст
- 8К
- Вход
- 204,10 ₽/М
- Выход
- 816,41 ₽/М
от inflection · 11 окт. 2024 г.
Kwaipilot: KAT-Coder-Pro V2
kwaipilot/kat-coder-pro-v2
KAT-Coder-Pro V2 — это новейшая высокопроизводительная модель в серии KAT-Coder от KwaiKAT, разработанная для сложной корпоративной разработки программного обеспечения и интеграции SaaS. Она основывается на агентных возможностях…
- Контекст
- 256К
- Вход
- 24,49 ₽/М
- Выход
- 97,97 ₽/М
от kwaipilot · 27 мар. 2026 г.
LiquidAI: LFM2-24B-A2B
liquid/lfm-2-24b-a2b
LFM2-24B-A2B — это крупнейшая модель в семействе гибридных архитектур LFM2, разработанных для эффективного развертывания на устройствах. Созданная как модель Mixture-of-Experts с 24 миллиардами параметров и всего 2 миллиардами активных…
- Контекст
- 33К
- Вход
- 2,45 ₽/М
- Выход
- 9,80 ₽/М
от liquid · 25 февр. 2026 г.
LiquidAI: LFM2.5-1.2B-Instruct (free)
liquid/lfm-2.5-1.2b-instruct:free
LFM2.5-1.2B-Instruct — это компактная, высокопроизводительная модель, настроенная на выполнение инструкций, созданная для быстрого ИИ на устройстве. Она обеспечивает высокое качество чата при размере 1,2 миллиарда параметров, с эффективным…
- Контекст
- 33К
- Вход
- бесплатно/М
- Выход
- бесплатно/М
от liquid · 20 янв. 2026 г.
LiquidAI: LFM2.5-1.2B-Thinking (free)
liquid/lfm-2.5-1.2b-thinking:free
LFM2.5-1.2B-Thinking — это легковесная модель, ориентированная на рассуждения, оптимизированная для агентских задач, извлечения данных и RAG, при этом комфортно работающая на периферийных устройствах. Она поддерживает длинный контекст (до…
- Контекст
- 33К
- Вход
- бесплатно/М
- Выход
- бесплатно/М
от liquid · 20 янв. 2026 г.
Llama Guard 3 8B
meta-llama/llama-guard-3-8b
Llama Guard 3 — это предварительно обученная модель Llama-3.1-8B, доработанная для классификации контента по безопасности. Как и предыдущие версии, она может использоваться для классификации контента как во входных данных LLM…
- Контекст
- 131К
- Вход
- 39,19 ₽/М
- Выход
- 2,45 ₽/М
от meta-llama · 12 февр. 2025 г.
Magnum v4 72B
anthracite-org/magnum-v4-72b
This is a series of models designed to replicate the prose quality of the Claude 3 models, specifically Sonnet(https://openrouter.ai/anthropic/claude-3.5-sonnet) and Opus(https://openrouter.ai/anthropic/claude-3-opus).
- Контекст
- 16К
- Вход
- 244,92 ₽/М
- Выход
- 408,21 ₽/М
от anthracite-org · 22 окт. 2024 г.
Mancer: Weaver (alpha)
mancer/weaver
Попытка воссоздать многословность в стиле Claude, но не ожидайте того же уровня связности или памяти. Предназначено для использования в ролевых играх/нарративных ситуациях.
- Контекст
- 8К
- Вход
- 61,23 ₽/М
- Выход
- 81,64 ₽/М
от mancer · 2 авг. 2023 г.
Meta: Llama 3 70B Instruct
meta-llama/llama-3-70b-instruct
Последнее поколение моделей Meta (Llama 3) было выпущено в различных размерах и вариантах. Эта 70B версия, настроенная для инструкций, была оптимизирована для высококачественных диалоговых сценариев использования.
- Контекст
- 8К
- Вход
- 41,64 ₽/М
- Выход
- 60,41 ₽/М
от meta-llama · 18 апр. 2024 г.
Meta: Llama 3 8B Instruct
meta-llama/llama-3-8b-instruct
Последнее поколение моделей Meta (Llama 3) было выпущено в различных размерах и вариантах. Эта 8B версия, настроенная для инструкций, была оптимизирована для высококачественных диалоговых сценариев использования.
- Контекст
- 8К
- Вход
- 2,45 ₽/М
- Выход
- 3,27 ₽/М
от meta-llama · 18 апр. 2024 г.
Meta: Llama 3.1 70B Instruct
meta-llama/llama-3.1-70b-instruct
Последнее поколение моделей Meta (Llama 3.1) было выпущено в различных размерах и вариантах. Эта 70B версия, настроенная для инструкций, оптимизирована для высококачественных диалоговых сценариев использования.
- Контекст
- 131К
- Вход
- 32,66 ₽/М
- Выход
- 32,66 ₽/М
от meta-llama · 23 июл. 2024 г.
Meta: Llama 3.1 8B Instruct
meta-llama/llama-3.1-8b-instruct
Последний класс моделей Meta (Llama 3.1) был выпущен в различных размерах и вариантах. Эта 8B версия, настроенная для инструкций, быстра и эффективна.
- Контекст
- 16К
- Вход
- 1,63 ₽/М
- Выход
- 4,08 ₽/М
от meta-llama · 23 июл. 2024 г.
Meta: Llama 3.2 11B Vision Instruct
meta-llama/llama-3.2-11b-vision-instruct
Llama 3.2 11B Vision — это мультимодальная модель с 11 миллиардами параметров, разработанная для решения задач, сочетающих визуальные и текстовые данные. Она превосходно справляется с такими задачами, как создание подписей к изображениям и…
- Контекст
- 131К
- Вход
- 20,00 ₽/М
- Выход
- 20,00 ₽/М
от meta-llama · 25 сент. 2024 г.
Meta: Llama 3.2 1B Instruct
meta-llama/llama-3.2-1b-instruct
Llama 3.2 1B — это языковая модель с 1 миллиардом параметров, ориентированная на эффективное выполнение задач обработки естественного языка, таких как суммаризация, диалог и многоязычный текстовый анализ. Её меньший размер позволяет ей…
- Контекст
- 60К
- Вход
- 2,20 ₽/М
- Выход
- 16,33 ₽/М
от meta-llama · 25 сент. 2024 г.
Meta: Llama 3.2 3B Instruct
meta-llama/llama-3.2-3b-instruct
Llama 3.2 3B — это мультиязычная большая языковая модель с 3 миллиардами параметров, оптимизированная для решения сложных задач обработки естественного языка, таких как генерация диалогов, рассуждения и суммаризация. Разработанная с…
- Контекст
- 80К
- Вход
- 4,16 ₽/М
- Выход
- 27,76 ₽/М
от meta-llama · 25 сент. 2024 г.
Meta: Llama 3.2 3B Instruct (free)
meta-llama/llama-3.2-3b-instruct:free
Llama 3.2 3B — это мультиязычная большая языковая модель с 3 миллиардами параметров, оптимизированная для решения сложных задач обработки естественного языка, таких как генерация диалогов, рассуждения и суммаризация. Разработанная с…
- Контекст
- 131К
- Вход
- бесплатно/М
- Выход
- бесплатно/М
от meta-llama · 25 сент. 2024 г.
Meta: Llama 3.3 70B Instruct
meta-llama/llama-3.3-70b-instruct
Мультиязычная большая языковая модель (LLM) Meta Llama 3.3 — это предварительно обученная и настроенная на инструкции генеративная модель с 70B параметрами (ввод текста/вывод текста). Модель Llama 3.3, настроенная на инструкции и…
- Контекст
- 131К
- Вход
- 8,16 ₽/М
- Выход
- 26,13 ₽/М
от meta-llama · 6 дек. 2024 г.
Meta: Llama 3.3 70B Instruct (free)
meta-llama/llama-3.3-70b-instruct:free
Мультиязычная большая языковая модель (LLM) Meta Llama 3.3 — это предварительно обученная и настроенная на инструкции генеративная модель с 70B параметрами (ввод текста/вывод текста). Модель Llama 3.3, настроенная на инструкции, только для…
- Контекст
- 66К
- Вход
- бесплатно/М
- Выход
- бесплатно/М
от meta-llama · 6 дек. 2024 г.
Meta: Llama 4 Maverick
meta-llama/llama-4-maverick
Llama 4 Maverick 17B Instruct (128E) — это высокопроизводительная мультиязычная модель от Meta, построенная на архитектуре Mixture-of-Experts (MoE) со 128 экспертами и 17 миллиардами активных параметров на прямой проход (всего 400…
- Контекст
- 1.0М
- Вход
- 12,25 ₽/М
- Выход
- 48,98 ₽/М
от meta-llama · 5 апр. 2025 г.
Meta: Llama 4 Scout
meta-llama/llama-4-scout
Llama 4 Scout 17B Instruct (16E) — это языковая модель типа «смесь экспертов» (MoE), разработанная Meta, активирующая 17 миллиардов параметров из общего числа 109 миллиардов. Она поддерживает нативный мультимодальный ввод (текст и…
- Контекст
- 328К
- Вход
- 6,53 ₽/М
- Выход
- 24,49 ₽/М
от meta-llama · 5 апр. 2025 г.
Meta: Llama Guard 4 12B
meta-llama/llama-guard-4-12b
Llama Guard 4 — это мультимодальная предварительно обученная модель, созданная на основе Llama 4 Scout и доработанная для классификации безопасности контента. Как и предыдущие версии, она может использоваться для классификации контента как…
- Контекст
- 164К
- Вход
- 14,70 ₽/М
- Выход
- 14,70 ₽/М
от meta-llama · 30 апр. 2025 г.
Microsoft: Phi 4
microsoft/phi-4
[Microsoft Research](/microsoft) Phi-4 разработан для эффективного выполнения сложных задач рассуждения и может эффективно работать в условиях ограниченной памяти или там, где требуются быстрые ответы.
- Контекст
- 16К
- Вход
- 5,31 ₽/М
- Выход
- 11,43 ₽/М
от microsoft · 10 янв. 2025 г.
MiniMax: MiniMax M1
minimax/minimax-m1
MiniMax-M1 — это крупномасштабная модель рассуждений с открытым весом, разработанная для расширенного контекста и высокоэффективного вывода. Она использует гибридную архитектуру Mixture-of-Experts (MoE) в сочетании с настраиваемым…
- Контекст
- 1.0М
- Вход
- 32,66 ₽/М
- Выход
- 179,61 ₽/М
от minimax · 17 июн. 2025 г.
MiniMax: MiniMax M2
minimax/minimax-m2
MiniMax-M2 — это компактная, высокоэффективная большая языковая модель (LLM), оптимизированная для сквозного кодирования и агентских рабочих процессов. Обладая 10 миллиардами активированных параметров (всего 230 миллиардов), она…
- Контекст
- 197К
- Вход
- 20,82 ₽/М
- Выход
- 81,64 ₽/М
от minimax · 23 окт. 2025 г.
MiniMax: MiniMax M2-her
minimax/minimax-m2-her
MiniMax M2-her — это большая языковая модель, ориентированная на диалог, созданная для иммерсивных ролевых игр, чатов, управляемых персонажами, и выразительных многоходовых бесед. Разработанная для поддержания согласованности тона и…
- Контекст
- 66К
- Вход
- 24,49 ₽/М
- Выход
- 97,97 ₽/М
от minimax · 23 янв. 2026 г.
MiniMax: MiniMax M2.1
minimax/minimax-m2.1
MiniMax-M2.1 — это легковесная, современная большая языковая модель, оптимизированная для кодирования, агентских рабочих процессов и разработки современных приложений. Имея всего 10 миллиардов активированных параметров, она обеспечивает…
- Контекст
- 197К
- Вход
- 23,68 ₽/М
- Выход
- 77,56 ₽/М
от minimax · 23 дек. 2025 г.
MiniMax: MiniMax M2.5
minimax/minimax-m2.5
MiniMax-M2.5 — это современная большая языковая модель (SOTA LLM), разработанная для повышения продуктивности в реальных условиях. Обученная в разнообразных и сложных реальных цифровых рабочих средах, M2.5 развивает опыт кодирования M2.1,…
- Контекст
- 197К
- Вход
- 12,25 ₽/М
- Выход
- 93,89 ₽/М
от minimax · 12 февр. 2026 г.
MiniMax: MiniMax M2.5 (free)
minimax/minimax-m2.5:free
MiniMax-M2.5 — это SOTA большая языковая модель, разработанная для повышения продуктивности в реальных условиях. Обученная в разнообразных сложных реальных цифровых рабочих средах, M2.5 основывается на опыте кодирования M2.1...
- Контекст
- 197К
- Вход
- бесплатно/М
- Выход
- бесплатно/М
от minimax · 12 февр. 2026 г.
MiniMax: MiniMax M2.7
minimax/minimax-m2.7
MiniMax-M2.7 — это крупная языковая модель нового поколения, разработанная для автономной, реальной продуктивности и непрерывного совершенствования. Созданная для активного участия в собственной эволюции, M2.7 интегрирует передовые…
- Контекст
- 197К
- Вход
- 24,49 ₽/М
- Выход
- 97,97 ₽/М
от minimax · 18 мар. 2026 г.
MiniMax: MiniMax-01
minimax/minimax-01
MiniMax-01 сочетает MiniMax-Text-01 для генерации текста и MiniMax-VL-01 для понимания изображений. Он имеет 456 миллиардов параметров, при этом 45,9 миллиарда параметров активируются за одно логическое выведение, и может обрабатывать…
- Контекст
- 1.0М
- Вход
- 16,33 ₽/М
- Выход
- 89,81 ₽/М
от minimax · 15 янв. 2025 г.
Mistral Large
mistralai/mistral-large
Это флагманская модель Mistral AI, Mistral Large 2 (версия `mistral-large-2407`). Это проприетарная модель с доступными весами, которая превосходно справляется с рассуждениями, кодом, JSON, чатом и многим другим. Прочитайте объявление о…
- Контекст
- 128К
- Вход
- 163,28 ₽/М
- Выход
- 489,85 ₽/М
от mistralai · 26 февр. 2024 г.
Mistral Large 2407
mistralai/mistral-large-2407
Это флагманская модель Mistral AI, Mistral Large 2 (версия mistral-large-2407). Это проприетарная модель с доступными весами, которая превосходно справляется с рассуждениями, кодом, JSON, чатом и многим другим. Прочитайте объявление о…
- Контекст
- 131К
- Вход
- 163,28 ₽/М
- Выход
- 489,85 ₽/М
от mistralai · 19 нояб. 2024 г.
Mistral Large 2411
mistralai/mistral-large-2411
Mistral Large 2 2411 is an update of [Mistral Large 2](/mistralai/mistral-large) released together with [Pixtral Large 2411](/mistralai/pixtral-large-2411)
- Контекст
- 131К
- Вход
- 163,28 ₽/М
- Выход
- 489,85 ₽/М
от mistralai · 19 нояб. 2024 г.
Mistral: Codestral 2508
mistralai/codestral-2508
Передовая языковая модель Mistral для кодирования, выпущенная в конце июля 2025 года. Codestral специализируется на задачах с низкой задержкой и высокой частотой, таких как заполнение середины (FIM), исправление кода и генерация тестов.
- Контекст
- 256К
- Вход
- 24,49 ₽/М
- Выход
- 73,48 ₽/М
от mistralai · 1 авг. 2025 г.
Mistral: Devstral 2 2512
mistralai/devstral-2512
Devstral 2 — это передовая модель с открытым исходным кодом от Mistral AI, специализирующаяся на агентном кодировании. Это плотная transformer-модель со 123 миллиардами параметров, поддерживающая контекстное окно размером 256K.
- Контекст
- 262К
- Вход
- 32,66 ₽/М
- Выход
- 163,28 ₽/М
от mistralai · 9 дек. 2025 г.
Mistral: Devstral Medium
mistralai/devstral-medium
Devstral Medium — это высокопроизводительная модель для генерации кода и агентного мышления, разработанная совместно Mistral AI и All Hands AI. Позиционируясь как шаг вперёд по сравнению с Devstral Small, она достигает 61,6% на SWE-Bench…
- Контекст
- 131К
- Вход
- 32,66 ₽/М
- Выход
- 163,28 ₽/М
от mistralai · 10 июл. 2025 г.
Mistral: Devstral Small 1.1
mistralai/devstral-small
Devstral Small 1.1 — это открытая языковая модель с 24 миллиардами параметров для программных агентов, разработанная Mistral AI в сотрудничестве с All Hands AI. Модель доработана на основе Mistral Small 3.1 и выпущена под лицензией Apache…
- Контекст
- 131К
- Вход
- 8,16 ₽/М
- Выход
- 24,49 ₽/М
от mistralai · 10 июл. 2025 г.
Mistral: Ministral 3 14B 2512
mistralai/ministral-14b-2512
Крупнейшая модель в семействе Ministral 3, Ministral 3 14B, предлагает передовые возможности и производительность, сравнимую с её более крупным аналогом Mistral Small 3.2 24B. Мощная и эффективная языковая модель с возможностями зрения.
- Контекст
- 262К
- Вход
- 16,33 ₽/М
- Выход
- 16,33 ₽/М
от mistralai · 2 дек. 2025 г.
Mistral: Ministral 3 3B 2512
mistralai/ministral-3b-2512
Самая маленькая модель в семействе Ministral 3, Ministral 3 3B — это мощная, эффективная миниатюрная языковая модель с возможностями зрения.
- Контекст
- 131К
- Вход
- 8,16 ₽/М
- Выход
- 8,16 ₽/М
от mistralai · 2 дек. 2025 г.
Mistral: Ministral 3 8B 2512
mistralai/ministral-8b-2512
Сбалансированная модель в семействе Ministral 3, Ministral 3 8B — это мощная, эффективная миниатюрная языковая модель с возможностями зрения.
- Контекст
- 262К
- Вход
- 12,25 ₽/М
- Выход
- 12,25 ₽/М
от mistralai · 2 дек. 2025 г.
Mistral: Mistral 7B Instruct v0.1
mistralai/mistral-7b-instruct-v0.1
Модель с 7,3 миллиардами параметров, которая превосходит Llama 2 13B по всем бенчмаркам, с оптимизациями для скорости и длины контекста.
- Контекст
- 3К
- Вход
- 8,98 ₽/М
- Выход
- 15,51 ₽/М
от mistralai · 28 сент. 2023 г.
Mistral: Mistral Large 3 2512
mistralai/mistral-large-2512
Mistral Large 3 2512 — это самая мощная на сегодняшний день модель Mistral, отличающаяся разреженной архитектурой Mixture-of-Experts с 41 млрд активных параметров (всего 675 млрд) и выпущенная под лицензией Apache 2.0.
- Контекст
- 262К
- Вход
- 40,82 ₽/М
- Выход
- 122,46 ₽/М
от mistralai · 1 дек. 2025 г.
Mistral: Mistral Medium 3
mistralai/mistral-medium-3
Mistral Medium 3 — это высокопроизводительная языковая модель корпоративного уровня, разработанная для обеспечения передовых возможностей при значительно сниженных эксплуатационных расходах. Она сочетает в себе самые современные…
- Контекст
- 131К
- Вход
- 32,66 ₽/М
- Выход
- 163,28 ₽/М
от mistralai · 7 мая 2025 г.
Mistral: Mistral Medium 3.1
mistralai/mistral-medium-3.1
Mistral Medium 3.1 — это обновленная версия Mistral Medium 3, высокопроизводительной языковой модели корпоративного уровня, разработанной для обеспечения передовых возможностей при значительно сниженных эксплуатационных расходах. Она…
- Контекст
- 131К
- Вход
- 32,66 ₽/М
- Выход
- 163,28 ₽/М
от mistralai · 13 авг. 2025 г.
Mistral: Mistral Nemo
mistralai/mistral-nemo
Модель с 12 миллиардами параметров и длиной контекста 128 тысяч токенов, разработанная Mistral в сотрудничестве с NVIDIA.
- Контекст
- 131К
- Вход
- 1,63 ₽/М
- Выход
- 2,45 ₽/М
от mistralai · 19 июл. 2024 г.
Mistral: Mistral Small 3
mistralai/mistral-small-24b-instruct-2501
Mistral Small 3 — это языковая модель с 24 миллиардами параметров, оптимизированная для работы с низкой задержкой при выполнении распространенных задач ИИ. Выпущенная под лицензией Apache 2.0, она включает как предварительно обученные, так…
- Контекст
- 33К
- Вход
- 4,08 ₽/М
- Выход
- 6,53 ₽/М
от mistralai · 30 янв. 2025 г.
Mistral: Mistral Small 3.1 24B
mistralai/mistral-small-3.1-24b-instruct
Mistral Small 3.1 24B Instruct — это обновленный вариант Mistral Small 3 (2501), включающий 24 миллиарда параметров с расширенными мультимодальными возможностями. Он обеспечивает передовую производительность в задачах текстового…
- Контекст
- 128К
- Вход
- 28,57 ₽/М
- Выход
- 45,72 ₽/М
от mistralai · 17 мар. 2025 г.
Mistral: Mistral Small 3.2 24B
mistralai/mistral-small-3.2-24b-instruct
Mistral-Small-3.2-24B-Instruct-2506 — это обновленная 24B-параметрическая модель от Mistral, оптимизированная для следования инструкциям, уменьшения повторений и улучшения вызова функций. По сравнению с версией 3.1, версия 3.2 значительно…
- Контекст
- 128К
- Вход
- 6,12 ₽/М
- Выход
- 16,33 ₽/М
от mistralai · 20 июн. 2025 г.
Mistral: Mistral Small 4
mistralai/mistral-small-2603
Mistral Small 4 — это следующий крупный релиз в семействе Mistral Small, объединяющий возможности нескольких флагманских моделей Mistral в единую систему. Он сочетает в себе мощные способности к рассуждению от Magistral, мультимодальное…
- Контекст
- 262К
- Вход
- 12,25 ₽/М
- Выход
- 48,98 ₽/М
от mistralai · 16 мар. 2026 г.
Mistral: Mixtral 8x22B Instruct
mistralai/mixtral-8x22b-instruct
Официальная инструктивная fine-tuned версия [Mixtral 8x22B](/models/mistralai/mixtral-8x22b) от Mistral. Она использует 39 миллиардов активных параметров из 141 миллиарда, предлагая беспрецедентную экономическую эффективность для своего…
- Контекст
- 66К
- Вход
- 163,28 ₽/М
- Выход
- 489,85 ₽/М
от mistralai · 17 апр. 2024 г.
Mistral: Mixtral 8x7B Instruct
mistralai/mixtral-8x7b-instruct
Mixtral 8x7B Instruct — это предварительно обученная генеративная модель Sparse Mixture of Experts от Mistral AI, предназначенная для использования в чатах и для выполнения инструкций. Она включает 8 экспертов (полносвязных нейронных…
- Контекст
- 33К
- Вход
- 44,09 ₽/М
- Выход
- 44,09 ₽/М
от mistralai · 10 дек. 2023 г.
Mistral: Pixtral Large 2411
mistralai/pixtral-large-2411
Pixtral Large — это открытая мультимодальная модель со 124 миллиардами параметров, построенная на базе [Mistral Large 2](/mistralai/mistral-large-2411). Модель способна понимать документы, диаграммы и естественные изображения.
- Контекст
- 131К
- Вход
- 163,28 ₽/М
- Выход
- 489,85 ₽/М
от mistralai · 19 нояб. 2024 г.
Mistral: Saba
mistralai/mistral-saba
Mistral Saba — это языковая модель с 24 миллиардами параметров, специально разработанная для Ближнего Востока и Южной Азии, обеспечивающая точные и контекстуально релевантные ответы при сохранении эффективной производительности. Обученная…
- Контекст
- 33К
- Вход
- 16,33 ₽/М
- Выход
- 48,98 ₽/М
от mistralai · 17 февр. 2025 г.
Mistral: Voxtral Small 24B 2507
mistralai/voxtral-small-24b-2507
Voxtral Small — это улучшенная версия Mistral Small 3, включающая передовые возможности аудиоввода при сохранении лучшей в своем классе производительности текста. Она превосходно справляется с транскрипцией речи, переводом и пониманием…
- Контекст
- 32К
- Вход
- 8,16 ₽/М
- Выход
- 24,49 ₽/М
от mistralai · 30 окт. 2025 г.
MoonshotAI Kimi Latest
~moonshotai/kimi-latest
Эта модель всегда перенаправляется на последнюю модель в семействе MoonshotAI Kimi.
- Контекст
- 262К
- Вход
- 60,41 ₽/М
- Выход
- 284,93 ₽/М
от ~moonshotai · 27 апр. 2026 г.
MoonshotAI: Kimi K2 0711
moonshotai/kimi-k2
Kimi K2 Instruct — это крупномасштабная языковая модель Mixture-of-Experts (MoE), разработанная Moonshot AI, с общим количеством параметров в 1 триллион и 32 миллиардами активных параметров на каждый прямой проход. Она оптимизирована для…
- Контекст
- 131К
- Вход
- 46,54 ₽/М
- Выход
- 187,77 ₽/М
от moonshotai · 11 июл. 2025 г.
MoonshotAI: Kimi K2 0905
moonshotai/kimi-k2-0905
Kimi K2 0905 — это сентябрьское обновление [Kimi K2 0711](moonshotai/kimi-k2). Это крупномасштабная языковая модель Mixture-of-Experts (MoE), разработанная Moonshot AI, с общим количеством параметров в 1 триллион и 32 миллиардами активных…
- Контекст
- 262К
- Вход
- 32,66 ₽/М
- Выход
- 163,28 ₽/М
от moonshotai · 4 сент. 2025 г.
MoonshotAI: Kimi K2 Thinking
moonshotai/kimi-k2-thinking
Kimi K2 Thinking — это самая передовая открытая модель рассуждений Moonshot AI на сегодняшний день, расширяющая серию K2 в область агентных рассуждений с длительным горизонтом. Построенная на архитектуре Mixture-of-Experts (MoE) с…
- Контекст
- 262К
- Вход
- 48,98 ₽/М
- Выход
- 204,10 ₽/М
от moonshotai · 6 нояб. 2025 г.
MoonshotAI: Kimi K2.5
moonshotai/kimi-k2.5
Kimi K2.5 — это нативная мультимодальная модель Moonshot AI, обеспечивающая передовые возможности визуального кодирования и парадигму самонаправляемой агентной системы. Созданная на базе Kimi K2 с продолженным предварительным обучением на…
- Контекст
- 262К
- Вход
- 35,92 ₽/М
- Выход
- 163,28 ₽/М
от moonshotai · 27 янв. 2026 г.
MoonshotAI: Kimi K2.6
moonshotai/kimi-k2.6
Kimi K2.6 — это мультимодальная модель нового поколения от Moonshot AI, разработанная для долгосрочного кодирования, генерации UI/UX на основе кодирования и оркестрации мультиагентов. Она справляется со сложными сквозными задачами…
- Контекст
- 262К
- Вход
- 60,41 ₽/М
- Выход
- 284,93 ₽/М
от moonshotai · 20 апр. 2026 г.
Morph: Morph V3 Fast
morph/morph-v3-fast
Самая быстрая модель Morph для применения изменений в коде. ~10 500 токенов/сек с точностью 96% для быстрых преобразований кода.
- Контекст
- 82К
- Вход
- 65,31 ₽/М
- Выход
- 97,97 ₽/М
от morph · 7 июл. 2025 г.
Morph: Morph V3 Large
morph/morph-v3-large
Высокоточная модель Morph для сложных изменений кода. ~4500 токенов/сек с точностью 98% для точных преобразований кода.
- Контекст
- 262К
- Вход
- 73,48 ₽/М
- Выход
- 155,12 ₽/М
от morph · 7 июл. 2025 г.
MythoMax 13B
gryphe/mythomax-l2-13b
Одна из самых высокопроизводительных и популярных fine-tune-версий Llama 2 13B, с богатыми описаниями и ролевыми играми. #merge
- Контекст
- 4К
- Вход
- 4,90 ₽/М
- Выход
- 4,90 ₽/М
от gryphe · 2 июл. 2023 г.
Nex AGI: DeepSeek V3.1 Nex N1
nex-agi/deepseek-v3.1-nex-n1
DeepSeek V3.1 Nex-N1 — это флагманский релиз серии Nex-N1, дообученная модель, разработанная для демонстрации автономности агентов, использования инструментов и продуктивности в реальном мире.
- Контекст
- 131К
- Вход
- 11,02 ₽/М
- Выход
- 40,82 ₽/М
от nex-agi · 8 дек. 2025 г.
Nous: Hermes 3 405B Instruct
nousresearch/hermes-3-llama-3.1-405b
Hermes 3 — это универсальная языковая модель со множеством улучшений по сравнению с Hermes 2, включая расширенные агентные возможности, значительно улучшенное ролевое взаимодействие, рассуждения, многооборотные диалоги, когерентность в…
- Контекст
- 131К
- Вход
- 81,64 ₽/М
- Выход
- 81,64 ₽/М
от nousresearch · 16 авг. 2024 г.
Nous: Hermes 3 405B Instruct (free)
nousresearch/hermes-3-llama-3.1-405b:free
Hermes 3 — это универсальная языковая модель со множеством улучшений по сравнению с Hermes 2, включая расширенные агентные возможности, значительно улучшенное ролевое взаимодействие, рассуждение, многоходовые диалоги, связность в длинном…
- Контекст
- 131К
- Вход
- бесплатно/М
- Выход
- бесплатно/М
от nousresearch · 16 авг. 2024 г.
Nous: Hermes 3 70B Instruct
nousresearch/hermes-3-llama-3.1-70b
Hermes 3 — это универсальная языковая модель со множеством улучшений по сравнению с [Hermes 2](/models/nousresearch/nous-hermes-2-mistral-7b-dpo), включая расширенные агентные возможности, значительно улучшенное ролевое взаимодействие,…
- Контекст
- 131К
- Вход
- 24,49 ₽/М
- Выход
- 24,49 ₽/М
от nousresearch · 18 авг. 2024 г.
Nous: Hermes 4 405B
nousresearch/hermes-4-405b
Hermes 4 — это крупномасштабная модель рассуждений, разработанная Nous Research на основе Meta-Llama-3.1-405B. Она представляет гибридный режим рассуждений, в котором модель может выбирать между внутренним обдумыванием с трассировками…
- Контекст
- 131К
- Вход
- 81,64 ₽/М
- Выход
- 244,92 ₽/М
от nousresearch · 26 авг. 2025 г.
Nous: Hermes 4 70B
nousresearch/hermes-4-70b
Hermes 4 70B — это гибридная модель рассуждений от Nous Research, построенная на базе Meta-Llama-3.1-70B. Она представляет тот же гибридный режим, что и более крупная версия 405B, позволяя модели либо отвечать напрямую, либо генерировать…
- Контекст
- 131К
- Вход
- 10,61 ₽/М
- Выход
- 32,66 ₽/М
от nousresearch · 26 авг. 2025 г.
NousResearch: Hermes 2 Pro - Llama-3 8B
nousresearch/hermes-2-pro-llama-3-8b
Hermes 2 Pro — это обновленная, переобученная версия Nous Hermes 2, состоящая из обновленного и очищенного набора данных OpenHermes 2.5, а также недавно представленного набора данных для вызова функций (Function Calling) и режима JSON…
- Контекст
- 8К
- Вход
- 11,43 ₽/М
- Выход
- 11,43 ₽/М
от nousresearch · 27 мая 2024 г.
NVIDIA: Llama 3.1 Nemotron 70B Instruct
nvidia/llama-3.1-nemotron-70b-instruct
NVIDIA Llama 3.1 Nemotron 70B — это языковая модель, разработанная для генерации точных и полезных ответов. Используя архитектуру [Llama 3.1 70B](/models/meta-llama/llama-3.1-70b-instruct) и обучение с подкреплением на основе обратной…
- Контекст
- 131К
- Вход
- 97,97 ₽/М
- Выход
- 97,97 ₽/М
от nvidia · 15 окт. 2024 г.
NVIDIA: Llama 3.3 Nemotron Super 49B V1.5
nvidia/llama-3.3-nemotron-super-49b-v1.5
Llama-3.3-Nemotron-Super-49B-v1.5 — это модель для рассуждений/чата с 49 миллиардами параметров, ориентированная на английский язык, разработанная на основе Llama-3.3-70B-Instruct от Meta с контекстом 128K. Она прошла пост-обучение для…
- Контекст
- 131К
- Вход
- 8,16 ₽/М
- Выход
- 32,66 ₽/М
от nvidia · 10 окт. 2025 г.
NVIDIA: Nemotron 3 Nano 30B A3B
nvidia/nemotron-3-nano-30b-a3b
NVIDIA Nemotron 3 Nano 30B A3B — это небольшая языковая модель MoE с высочайшей вычислительной эффективностью и точностью, предназначенная для разработчиков, создающих специализированные агентные системы ИИ.
- Контекст
- 262К
- Вход
- 4,08 ₽/М
- Выход
- 16,33 ₽/М
от nvidia · 14 дек. 2025 г.
NVIDIA: Nemotron 3 Nano 30B A3B (free)
nvidia/nemotron-3-nano-30b-a3b:free
NVIDIA Nemotron 3 Nano 30B A3B — это небольшая языковая модель MoE с высочайшей вычислительной эффективностью и точностью для разработчиков, создающих специализированные агентные системы ИИ. Модель полностью...
- Контекст
- 256К
- Вход
- бесплатно/М
- Выход
- бесплатно/М
от nvidia · 14 дек. 2025 г.
NVIDIA: Nemotron 3 Nano Omni (free)
nvidia/nemotron-3-nano-omni-30b-a3b-reasoning:free
NVIDIA Nemotron™ 3 Nano Omni — это открытая мультимодальная модель 30B-A3B, разработанная для функционирования в качестве субагента восприятия и контекста в корпоративных агентских системах. Она принимает текст, изображения, видео и...
- Контекст
- 256К
- Вход
- бесплатно/М
- Выход
- бесплатно/М
от nvidia · 28 апр. 2026 г.
NVIDIA: Nemotron 3 Super
nvidia/nemotron-3-super-120b-a12b
NVIDIA Nemotron 3 Super — это открытая гибридная модель MoE со 120 миллиардами параметров, активирующая всего 12 миллиардов параметров для максимальной вычислительной эффективности и точности в сложных многоагентных приложениях.…
- Контекст
- 262К
- Вход
- 7,35 ₽/М
- Выход
- 36,74 ₽/М
от nvidia · 11 мар. 2026 г.
NVIDIA: Nemotron 3 Super (free)
nvidia/nemotron-3-super-120b-a12b:free
NVIDIA Nemotron 3 Super — это открытая гибридная модель MoE с 120 миллиардами параметров, которая активирует всего 12 миллиардов параметров для достижения максимальной вычислительной эффективности и точности в сложных многоагентных…
- Контекст
- 262К
- Вход
- бесплатно/М
- Выход
- бесплатно/М
от nvidia · 11 мар. 2026 г.
NVIDIA: Nemotron Nano 12B 2 VL
nvidia/nemotron-nano-12b-v2-vl
NVIDIA Nemotron Nano 2 VL — это открытая мультимодальная модель рассуждений с 12 миллиардами параметров, разработанная для понимания видео и анализа документов. Она представляет гибридную архитектуру Transformer-Mamba, сочетающую точность…
- Контекст
- 131К
- Вход
- 16,33 ₽/М
- Выход
- 48,98 ₽/М
от nvidia · 28 окт. 2025 г.
NVIDIA: Nemotron Nano 12B 2 VL (free)
nvidia/nemotron-nano-12b-v2-vl:free
NVIDIA Nemotron Nano 2 VL — это открытая мультимодальная модель рассуждений с 12 миллиардами параметров, разработанная для понимания видео и анализа документов. Она представляет гибридную архитектуру Transformer-Mamba, сочетающую точность…
- Контекст
- 128К
- Вход
- бесплатно/М
- Выход
- бесплатно/М
от nvidia · 28 окт. 2025 г.
NVIDIA: Nemotron Nano 9B V2
nvidia/nemotron-nano-9b-v2
NVIDIA-Nemotron-Nano-9B-v2 — это большая языковая модель (LLM), разработанная с нуля компанией NVIDIA и предназначенная для решения как логических, так и нелогических задач. Она отвечает на запросы и задачи пользователей, сначала генерируя…
- Контекст
- 131К
- Вход
- 3,27 ₽/М
- Выход
- 13,06 ₽/М
от nvidia · 5 сент. 2025 г.
NVIDIA: Nemotron Nano 9B V2 (free)
nvidia/nemotron-nano-9b-v2:free
NVIDIA-Nemotron-Nano-9B-v2 — это большая языковая модель (LLM), разработанная и обученная с нуля компанией NVIDIA, предназначенная для решения как логических, так и нелогических задач. Она отвечает на запросы пользователей и...
- Контекст
- 128К
- Вход
- бесплатно/М
- Выход
- бесплатно/М
от nvidia · 5 сент. 2025 г.
OpenAI GPT Latest
~openai/gpt-latest
Эта модель всегда перенаправляется на последнюю модель семейства OpenAI GPT.
- Контекст
- 1.1М
- Вход
- 408,21 ₽/М
- Выход
- 2 449,23 ₽/М
от ~openai · 27 апр. 2026 г.
OpenAI GPT Mini Latest
~openai/gpt-mini-latest
Эта модель всегда перенаправляет на новейшую модель семейства OpenAI GPT Mini.
- Контекст
- 400К
- Вход
- 61,23 ₽/М
- Выход
- 367,38 ₽/М
от ~openai · 27 апр. 2026 г.
OpenAI: GPT Audio
openai/gpt-audio
Модель gpt-audio — это первая общедоступная аудиомодель от OpenAI. Новый снимок включает улучшенный декодер для более естественного звучания голосов и обеспечивает лучшую согласованность голоса. Стоимость аудио составляет 32 доллара за…
- Контекст
- 128К
- Вход
- 204,10 ₽/М
- Выход
- 816,41 ₽/М
от openai · 19 янв. 2026 г.
OpenAI: GPT Audio Mini
openai/gpt-audio-mini
Экономичная версия GPT Audio. Новый снимок включает обновленный декодер для более естественного звучания голосов и обеспечивает лучшую согласованность голоса. Входные данные оцениваются в $0.60 за миллион токенов, а выходные — в $2.40 за…
- Контекст
- 128К
- Вход
- 48,98 ₽/М
- Выход
- 195,94 ₽/М
от openai · 19 янв. 2026 г.
OpenAI: GPT-3.5 Turbo
openai/gpt-3.5-turbo
GPT-3.5 Turbo — это самая быстрая модель OpenAI. Она способна понимать и генерировать естественный язык или код, а также оптимизирована для чата и традиционных задач автодополнения.
- Контекст
- 16К
- Вход
- 40,82 ₽/М
- Выход
- 122,46 ₽/М
от openai · 28 мая 2023 г.
OpenAI: GPT-3.5 Turbo (older v0613)
openai/gpt-3.5-turbo-0613
GPT-3.5 Turbo — это самая быстрая модель OpenAI. Она может понимать и генерировать естественный язык или код, а также оптимизирована для чата и традиционных задач завершения.
- Контекст
- 4К
- Вход
- 81,64 ₽/М
- Выход
- 163,28 ₽/М
от openai · 25 янв. 2024 г.
OpenAI: GPT-3.5 Turbo 16k
openai/gpt-3.5-turbo-16k
Эта модель предлагает в четыре раза большую длину контекста по сравнению с gpt-3.5-turbo, что позволяет ей обрабатывать примерно 20 страниц текста за один запрос при более высокой стоимости. Данные для обучения: до сентября 2021 года.
- Контекст
- 16К
- Вход
- 244,92 ₽/М
- Выход
- 326,56 ₽/М
от openai · 28 авг. 2023 г.
OpenAI: GPT-3.5 Turbo Instruct
openai/gpt-3.5-turbo-instruct
Эта модель является вариантом GPT-3.5 Turbo, настроенным для инструкционных запросов и исключающим оптимизации, связанные с чатом. Данные обучения: до сентября 2021 года.
- Контекст
- 4К
- Вход
- 122,46 ₽/М
- Выход
- 163,28 ₽/М
от openai · 28 сент. 2023 г.
OpenAI: GPT-4
openai/gpt-4
Флагманская модель OpenAI, GPT-4, представляет собой крупномасштабную мультиканальную языковую модель, способную решать сложные задачи с большей точностью, чем предыдущие модели, благодаря своим более обширным общим знаниям и продвинутым…
- Контекст
- 8К
- Вход
- 2 449,23 ₽/М
- Выход
- 4 898,46 ₽/М
от openai · 28 мая 2023 г.
OpenAI: GPT-4 (older v0314)
openai/gpt-4-0314
GPT-4-0314 — это первая выпущенная версия GPT-4 с длиной контекста 8192 токена, поддержка которой осуществлялась до 14 июня. Данные для обучения: до сентября 2021 года.
- Контекст
- 8К
- Вход
- 2 449,23 ₽/М
- Выход
- 4 898,46 ₽/М
от openai · 28 мая 2023 г.
OpenAI: GPT-4 Turbo
openai/gpt-4-turbo
Новейшая модель GPT-4 Turbo с возможностями зрения. Запросы со зрением теперь могут использовать режим JSON и вызов функций.
- Контекст
- 128К
- Вход
- 816,41 ₽/М
- Выход
- 2 449,23 ₽/М
от openai · 9 апр. 2024 г.
OpenAI: GPT-4 Turbo (older v1106)
openai/gpt-4-1106-preview
Новейшая модель GPT-4 Turbo с возможностями зрения. Запросы со зрением теперь могут использовать режим JSON и вызов функций.
- Контекст
- 128К
- Вход
- 816,41 ₽/М
- Выход
- 2 449,23 ₽/М
от openai · 6 нояб. 2023 г.
OpenAI: GPT-4 Turbo Preview
openai/gpt-4-turbo-preview
Предварительная версия модели GPT-4 с улучшенным следованием инструкциям, режимом JSON, воспроизводимыми выходными данными, параллельным вызовом функций и многим другим. Данные для обучения: до декабря 2023 года.
- Контекст
- 128К
- Вход
- 816,41 ₽/М
- Выход
- 2 449,23 ₽/М
от openai · 25 янв. 2024 г.
OpenAI: GPT-4.1
openai/gpt-4.1
GPT-4.1 — это флагманская большая языковая модель, оптимизированная для расширенного следования инструкциям, реальной разработки программного обеспечения и рассуждений в длинном контексте. Она поддерживает контекстное окно в 1 миллион…
- Контекст
- 1.0М
- Вход
- 163,28 ₽/М
- Выход
- 653,13 ₽/М
от openai · 14 апр. 2025 г.
OpenAI: GPT-4.1 Mini
openai/gpt-4.1-mini
GPT-4.1 Mini — это модель среднего размера, обеспечивающая производительность, сопоставимую с GPT-4o, при значительно меньшей задержке и стоимости. Она сохраняет контекстное окно в 1 миллион токенов и набирает 45,1% в сложных тестах на…
- Контекст
- 1.0М
- Вход
- 32,66 ₽/М
- Выход
- 130,63 ₽/М
от openai · 14 апр. 2025 г.
OpenAI: GPT-4.1 Nano
openai/gpt-4.1-nano
Для задач, требующих низкой задержки, GPT-4.1 nano является самой быстрой и дешевой моделью в серии GPT-4.1. Она обеспечивает исключительную производительность при небольшом размере благодаря контекстному окну в 1 миллион токенов и…
- Контекст
- 1.0М
- Вход
- 8,16 ₽/М
- Выход
- 32,66 ₽/М
от openai · 14 апр. 2025 г.
OpenAI: GPT-4o (2024-05-13)
openai/gpt-4o-2024-05-13
GPT-4o («o» от «omni») — это новейшая модель ИИ от OpenAI, поддерживающая ввод текста и изображений с выводом текста. Она сохраняет уровень интеллекта [GPT-4 Turbo](/models/openai/gpt-4-turbo), при этом работая в два раза быстрее и будучи…
- Контекст
- 128К
- Вход
- 408,21 ₽/М
- Выход
- 1 224,62 ₽/М
от openai · 13 мая 2024 г.
OpenAI: GPT-4o (2024-08-06)
openai/gpt-4o-2024-08-06
Версия GPT-4o от 06.08.2024 предлагает улучшенную производительность в структурированных выходных данных, с возможностью предоставления JSON-схемы в `response_format`. Подробнее читайте…
- Контекст
- 128К
- Вход
- 204,10 ₽/М
- Выход
- 816,41 ₽/М
от openai · 6 авг. 2024 г.
OpenAI: GPT-4o (2024-11-20)
openai/gpt-4o-2024-11-20
Версия GPT-4o от 20.11.2024 предлагает улучшенные возможности творческого письма с более естественным, увлекательным и адаптированным стилем для повышения релевантности и читабельности. Она также лучше работает с загруженными файлами,…
- Контекст
- 128К
- Вход
- 204,10 ₽/М
- Выход
- 816,41 ₽/М
от openai · 20 нояб. 2024 г.
OpenAI: GPT-4o Audio
openai/gpt-4o-audio-preview
Модель gpt-4o-audio-preview добавляет поддержку аудиовходов в качестве prompt'ов. Это улучшение позволяет модели улавливать нюансы в аудиозаписях и добавлять глубину в генерируемый пользовательский опыт. Аудиовыходы в настоящее время не…
- Контекст
- 128К
- Вход
- 204,10 ₽/М
- Выход
- 816,41 ₽/М
от openai · 15 авг. 2025 г.
OpenAI: GPT-4o Search Preview
openai/gpt-4o-search-preview
Предварительная версия поиска GPT-4o — это специализированная модель для веб-поиска в Chat Completions. Она обучена понимать и выполнять запросы веб-поиска.
- Контекст
- 128К
- Вход
- 204,10 ₽/М
- Выход
- 816,41 ₽/М
от openai · 12 мар. 2025 г.
OpenAI: GPT-4o-mini
openai/gpt-4o-mini
GPT-4o mini — это новейшая модель OpenAI после [GPT-4 Omni](/models/openai/gpt-4o), поддерживающая как текстовые, так и графические входные данные с текстовыми выходными данными.
- Контекст
- 128К
- Вход
- 12,25 ₽/М
- Выход
- 48,98 ₽/М
от openai · 18 июл. 2024 г.
OpenAI: GPT-4o-mini (2024-07-18)
openai/gpt-4o-mini-2024-07-18
GPT-4o mini — это новейшая модель OpenAI после [GPT-4 Omni](/models/openai/gpt-4o), поддерживающая как текстовые, так и графические входные данные с текстовыми выходными данными.
- Контекст
- 128К
- Вход
- 12,25 ₽/М
- Выход
- 48,98 ₽/М
от openai · 18 июл. 2024 г.
OpenAI: GPT-4o-mini Search Preview
openai/gpt-4o-mini-search-preview
Предварительная версия поиска GPT-4o mini — это специализированная модель для веб-поиска в Chat Completions. Она обучена понимать и выполнять запросы веб-поиска.
- Контекст
- 128К
- Вход
- 12,25 ₽/М
- Выход
- 48,98 ₽/М
от openai · 12 мар. 2025 г.
OpenAI: GPT-5
openai/gpt-5
GPT-5 — это самая передовая модель OpenAI, предлагающая значительные улучшения в рассуждениях, качестве кода и пользовательском опыте. Она оптимизирована для сложных задач, требующих пошагового рассуждения, следования инструкциям и…
- Контекст
- 400К
- Вход
- 102,05 ₽/М
- Выход
- 816,41 ₽/М
от openai · 7 авг. 2025 г.
OpenAI: GPT-5 Chat
openai/gpt-5-chat
GPT-5 Chat разработан для продвинутых, естественных, мультимодальных и контекстно-ориентированных бесед в корпоративных приложениях.
- Контекст
- 128К
- Вход
- 102,05 ₽/М
- Выход
- 816,41 ₽/М
от openai · 7 авг. 2025 г.
OpenAI: GPT-5 Codex
openai/gpt-5-codex
GPT-5-Codex — это специализированная версия GPT-5, оптимизированная для рабочих процессов разработки программного обеспечения и кодирования. Она предназначена как для интерактивных сеансов разработки, так и для длительного, независимого…
- Контекст
- 400К
- Вход
- 102,05 ₽/М
- Выход
- 816,41 ₽/М
от openai · 23 сент. 2025 г.
OpenAI: GPT-5 Image
openai/gpt-5-image
[GPT-5](https://openrouter.ai/openai/gpt-5) Image сочетает модель GPT-5 от OpenAI с передовыми возможностями генерации изображений. Она предлагает значительные улучшения в рассуждениях, качестве кода и пользовательском опыте, одновременно…
- Контекст
- 400К
- Вход
- 816,41 ₽/М
- Выход
- 816,41 ₽/М
от openai · 14 окт. 2025 г.
OpenAI: GPT-5 Image Mini
openai/gpt-5-image-mini
GPT-5 Image Mini сочетает в себе передовые языковые возможности OpenAI, основанные на [GPT-5 Mini](https://openrouter.ai/openai/gpt-5-mini), с GPT Image 1 Mini для эффективной генерации изображений. Эта изначально мультимодальная модель…
- Контекст
- 400К
- Вход
- 204,10 ₽/М
- Выход
- 163,28 ₽/М
от openai · 16 окт. 2025 г.
OpenAI: GPT-5 Mini
openai/gpt-5-mini
GPT-5 Mini — это компактная версия GPT-5, разработанная для решения более лёгких задач, требующих рассуждений. Она обеспечивает те же преимущества GPT-5 в следовании инструкциям и настройке безопасности, но с уменьшенной задержкой и…
- Контекст
- 400К
- Вход
- 20,41 ₽/М
- Выход
- 163,28 ₽/М
от openai · 7 авг. 2025 г.
OpenAI: GPT-5 Nano
openai/gpt-5-nano
GPT-5-Nano — это самый маленький и быстрый вариант в системе GPT-5, оптимизированный для инструментов разработчика, быстрого взаимодействия и сред со сверхнизкой задержкой. Хотя его глубина рассуждений ограничена по сравнению с более…
- Контекст
- 400К
- Вход
- 4,08 ₽/М
- Выход
- 32,66 ₽/М
от openai · 7 авг. 2025 г.
OpenAI: GPT-5 Pro
openai/gpt-5-pro
GPT-5 Pro — это самая передовая модель OpenAI, предлагающая значительные улучшения в рассуждениях, качестве кода и пользовательском опыте. Она оптимизирована для сложных задач, требующих пошагового рассуждения, следования инструкциям и…
- Контекст
- 400К
- Вход
- 1 224,62 ₽/М
- Выход
- 9 796,92 ₽/М
от openai · 6 окт. 2025 г.
OpenAI: GPT-5.1
openai/gpt-5.1
GPT-5.1 — это новейшая модель передового уровня в серии GPT-5, предлагающая более сильное общецелевое рассуждение, улучшенное следование инструкциям и более естественный стиль беседы по сравнению с GPT-5. Она использует адаптивное…
- Контекст
- 400К
- Вход
- 102,05 ₽/М
- Выход
- 816,41 ₽/М
от openai · 13 нояб. 2025 г.
OpenAI: GPT-5.1 Chat
openai/gpt-5.1-chat
GPT-5.1 Chat (также известный как Instant) — это быстрый, легковесный представитель семейства 5.1, оптимизированный для чата с низкой задержкой, сохраняющий при этом сильный общий интеллект. Он использует адаптивное рассуждение, чтобы…
- Контекст
- 128К
- Вход
- 102,05 ₽/М
- Выход
- 816,41 ₽/М
от openai · 13 нояб. 2025 г.
OpenAI: GPT-5.1-Codex
openai/gpt-5.1-codex
GPT-5.1-Codex — это специализированная версия GPT-5.1, оптимизированная для разработки программного обеспечения и рабочих процессов кодирования. Она предназначена как для интерактивных сеансов разработки, так и для длительного,…
- Контекст
- 400К
- Вход
- 102,05 ₽/М
- Выход
- 816,41 ₽/М
от openai · 13 нояб. 2025 г.
OpenAI: GPT-5.1-Codex-Max
openai/gpt-5.1-codex-max
GPT-5.1-Codex-Max — это новейшая агентная модель кодирования от OpenAI, разработанная для длительных задач по разработке программного обеспечения с высоким контекстом. Она основана на обновленной версии стека рассуждений 5.1 и обучена на…
- Контекст
- 400К
- Вход
- 102,05 ₽/М
- Выход
- 816,41 ₽/М
от openai · 4 дек. 2025 г.
OpenAI: GPT-5.1-Codex-Mini
openai/gpt-5.1-codex-mini
GPT-5.1-Codex-Mini — это уменьшенная и более быстрая версия GPT-5.1-Codex
- Контекст
- 400К
- Вход
- 20,41 ₽/М
- Выход
- 163,28 ₽/М
от openai · 13 нояб. 2025 г.
OpenAI: GPT-5.2
openai/gpt-5.2
GPT-5.2 — это новейшая пограничная модель серии GPT-5, предлагающая более высокую производительность в режиме агента и при работе с длинным контекстом по сравнению с GPT-5.1. Она использует адаптивное рассуждение для динамического…
- Контекст
- 400К
- Вход
- 142,87 ₽/М
- Выход
- 1 142,97 ₽/М
от openai · 10 дек. 2025 г.
OpenAI: GPT-5.2 Chat
openai/gpt-5.2-chat
GPT-5.2 Chat (также известный как Instant) — это быстрый и легковесный член семейства 5.2, оптимизированный для чата с низкой задержкой, сохраняющий при этом сильный общий интеллект. Он использует адаптивное рассуждение, чтобы выборочно…
- Контекст
- 128К
- Вход
- 142,87 ₽/М
- Выход
- 1 142,97 ₽/М
от openai · 10 дек. 2025 г.
OpenAI: GPT-5.2 Pro
openai/gpt-5.2-pro
GPT-5.2 Pro — это самая передовая модель OpenAI, предлагающая значительные улучшения в агентном кодировании и производительности при работе с длинным контекстом по сравнению с GPT-5 Pro. Она оптимизирована для сложных задач, требующих…
- Контекст
- 400К
- Вход
- 1 714,46 ₽/М
- Выход
- 13 715,69 ₽/М
от openai · 10 дек. 2025 г.
OpenAI: GPT-5.2-Codex
openai/gpt-5.2-codex
GPT-5.2-Codex — это обновленная версия GPT-5.1-Codex, оптимизированная для рабочих процессов в области разработки программного обеспечения и кодирования. Она предназначена как для интерактивных сессий разработки, так и для длительного,…
- Контекст
- 400К
- Вход
- 142,87 ₽/М
- Выход
- 1 142,97 ₽/М
от openai · 14 янв. 2026 г.
OpenAI: GPT-5.3 Chat
openai/gpt-5.3-chat
GPT-5.3 Chat — это обновление самой используемой модели ChatGPT, которое делает повседневные беседы более плавными, полезными и непосредственно помогающими. Оно обеспечивает более точные ответы с лучшей контекстуализацией и значительно…
- Контекст
- 128К
- Вход
- 142,87 ₽/М
- Выход
- 1 142,97 ₽/М
от openai · 3 мар. 2026 г.
OpenAI: GPT-5.3-Codex
openai/gpt-5.3-codex
GPT-5.3-Codex — это самая передовая агентная модель кодирования от OpenAI, сочетающая в себе передовую производительность программной инженерии GPT-5.2-Codex с более широкими возможностями рассуждения и профессиональными знаниями GPT-5.2.…
- Контекст
- 400К
- Вход
- 142,87 ₽/М
- Выход
- 1 142,97 ₽/М
от openai · 24 февр. 2026 г.
OpenAI: GPT-5.4
openai/gpt-5.4
GPT-5.4 — это новейшая пограничная модель OpenAI, объединяющая линейки Codex и GPT в единую систему. Она имеет контекстное окно размером более 1 млн токенов (922 тыс. на вход, 128 тыс. на выход) с поддержкой текстового и графического…
- Контекст
- 1.1М
- Вход
- 204,10 ₽/М
- Выход
- 1 224,62 ₽/М
от openai · 5 мар. 2026 г.
OpenAI: GPT-5.4 Image 2
openai/gpt-5.4-image-2
[GPT-5.4](https://openrouter.ai/openai/gpt-5.4) Image 2 объединяет модель GPT-5.4 от OpenAI с передовыми возможностями генерации изображений от GPT Image 2. Это обеспечивает богатые мультимодальные рабочие процессы, позволяя пользователям…
- Контекст
- 272К
- Вход
- 653,13 ₽/М
- Выход
- 1 224,62 ₽/М
от openai · 21 апр. 2026 г.
OpenAI: GPT-5.4 Mini
openai/gpt-5.4-mini
GPT-5.4 mini переносит основные возможности GPT-5.4 в более быструю и эффективную модель, оптимизированную для высокопроизводительных рабочих нагрузок. Она поддерживает текстовые и графические входные данные с высокой производительностью в…
- Контекст
- 400К
- Вход
- 61,23 ₽/М
- Выход
- 367,38 ₽/М
от openai · 17 мар. 2026 г.
OpenAI: GPT-5.4 Nano
openai/gpt-5.4-nano
GPT-5.4 nano — это самый легкий и экономичный вариант семейства GPT-5.4, оптимизированный для задач, критичных к скорости и требующих большого объема обработки. Он поддерживает текстовые и графические входные данные и разработан для…
- Контекст
- 400К
- Вход
- 16,33 ₽/М
- Выход
- 102,05 ₽/М
от openai · 17 мар. 2026 г.
OpenAI: GPT-5.4 Pro
openai/gpt-5.4-pro
GPT-5.4 Pro — это самая передовая модель OpenAI, основанная на унифицированной архитектуре GPT-5.4 с расширенными возможностями рассуждений для сложных и ответственных задач. Она имеет контекстное окно размером более 1 млн токенов (922…
- Контекст
- 1.1М
- Вход
- 2 449,23 ₽/М
- Выход
- 14 695,38 ₽/М
от openai · 5 мар. 2026 г.
OpenAI: GPT-5.5
openai/gpt-5.5
GPT-5.5 — это передовая модель OpenAI, разработанная для сложных профессиональных рабочих нагрузок, основанная на GPT-5.4 с более сильным рассуждением, более высокой надежностью и улучшенной эффективностью токенов для сложных задач. Она…
- Контекст
- 1.1М
- Вход
- 408,21 ₽/М
- Выход
- 2 449,23 ₽/М
от openai · 24 апр. 2026 г.
OpenAI: GPT-5.5 Pro
openai/gpt-5.5-pro
GPT-5.5 Pro — это высокопроизводительная модель OpenAI, оптимизированная для глубокого анализа и точности в сложных, ответственных рабочих нагрузках. Она имеет контекстное окно размером более 1 млн токенов (922 тыс. входных, 128 тыс.…
- Контекст
- 1.1М
- Вход
- 2 449,23 ₽/М
- Выход
- 14 695,38 ₽/М
от openai · 24 апр. 2026 г.
OpenAI: gpt-oss-120b
openai/gpt-oss-120b
gpt-oss-120b — это открытая языковая модель Mixture-of-Experts (MoE) с 117 миллиардами параметров от OpenAI, разработанная для высокоинтеллектуальных, агентных и универсальных производственных сценариев использования. Она активирует 5,1…
- Контекст
- 131К
- Вход
- 3,18 ₽/М
- Выход
- 14,70 ₽/М
от openai · 5 авг. 2025 г.
OpenAI: gpt-oss-120b (free)
openai/gpt-oss-120b:free
gpt-oss-120b — это открытая языковая модель Mixture-of-Experts (MoE) от OpenAI с 117 миллиардами параметров, разработанная для высокоинтеллектуальных, агентных и универсальных производственных сценариев использования. Она активирует 5,1…
- Контекст
- 131К
- Вход
- бесплатно/М
- Выход
- бесплатно/М
от openai · 5 авг. 2025 г.
OpenAI: gpt-oss-20b
openai/gpt-oss-20b
gpt-oss-20b — это открытая модель с 21 миллиардом параметров, выпущенная OpenAI по лицензии Apache 2.0. Она использует архитектуру Mixture-of-Experts (MoE) с 3,6 миллиарда активных параметров на один прямой проход, оптимизированную для…
- Контекст
- 131К
- Вход
- 2,45 ₽/М
- Выход
- 11,43 ₽/М
от openai · 5 авг. 2025 г.
OpenAI: gpt-oss-20b (free)
openai/gpt-oss-20b:free
gpt-oss-20b — это открытая модель с 21 миллиардом параметров, выпущенная OpenAI по лицензии Apache 2.0. Она использует архитектуру Mixture-of-Experts (MoE) с 3,6 миллиарда активных параметров на прямой проход, оптимизированную для...
- Контекст
- 131К
- Вход
- бесплатно/М
- Выход
- бесплатно/М
от openai · 5 авг. 2025 г.
OpenAI: gpt-oss-safeguard-20b
openai/gpt-oss-safeguard-20b
gpt-oss-safeguard-20b — это модель для рассуждений о безопасности от OpenAI, построенная на основе gpt-oss-20b. Эта открытая модель Mixture-of-Experts (MoE) с 21 миллиардом параметров обеспечивает меньшую задержку для задач безопасности,…
- Контекст
- 131К
- Вход
- 6,12 ₽/М
- Выход
- 24,49 ₽/М
от openai · 29 окт. 2025 г.
OpenAI: o1
openai/o1
Новейшее и самое мощное семейство моделей от OpenAI, o1, разработано для того, чтобы тратить больше времени на обдумывание перед ответом. Серия моделей o1 обучена с использованием крупномасштабного обучения с подкреплением для рассуждений…
- Контекст
- 200К
- Вход
- 1 224,62 ₽/М
- Выход
- 4 898,46 ₽/М
от openai · 17 дек. 2024 г.
OpenAI: o1-pro
openai/o1-pro
Модели серии o1 обучены с использованием обучения с подкреплением, чтобы обдумывать свои ответы и выполнять сложное рассуждение. Модель o1-pro использует больше вычислительных ресурсов, чтобы обдумывать более тщательно и предоставлять…
- Контекст
- 200К
- Вход
- 12 246,15 ₽/М
- Выход
- 48 984,60 ₽/М
от openai · 19 мар. 2025 г.
OpenAI: o3
openai/o3
o3 — это всесторонне развитая и мощная модель, охватывающая различные области. Она устанавливает новый стандарт для задач по математике, естественным наукам, программированию и визуальному мышлению. Она также превосходно справляется с…
- Контекст
- 200К
- Вход
- 163,28 ₽/М
- Выход
- 653,13 ₽/М
от openai · 16 апр. 2025 г.
OpenAI: o3 Deep Research
openai/o3-deep-research
o3-deep-research — это продвинутая модель OpenAI для глубоких исследований, разработанная для решения сложных, многоэтапных исследовательских задач.
- Контекст
- 200К
- Вход
- 816,41 ₽/М
- Выход
- 3 265,64 ₽/М
от openai · 10 окт. 2025 г.
OpenAI: o3 Mini
openai/o3-mini
OpenAI o3-mini — это экономичная языковая модель, оптимизированная для задач STEM-рассуждений, особенно превосходно справляющаяся с наукой, математикой и кодированием.
- Контекст
- 200К
- Вход
- 89,81 ₽/М
- Выход
- 359,22 ₽/М
от openai · 31 янв. 2025 г.
OpenAI: o3 Mini High
openai/o3-mini-high
OpenAI o3-mini-high — это та же модель, что и [o3-mini](/openai/o3-mini), но с параметром `reasoning_effort`, установленным на `high`.
- Контекст
- 200К
- Вход
- 89,81 ₽/М
- Выход
- 359,22 ₽/М
от openai · 12 февр. 2025 г.
OpenAI: o3 Pro
openai/o3-pro
Модели серии o обучены с использованием обучения с подкреплением, чтобы обдумывать ответ перед тем, как его дать, и выполнять сложное рассуждение. Модель o3-pro использует больше вычислительных ресурсов, чтобы глубже обдумывать и…
- Контекст
- 200К
- Вход
- 1 632,82 ₽/М
- Выход
- 6 531,28 ₽/М
от openai · 10 июн. 2025 г.
OpenAI: o4 Mini
openai/o4-mini
OpenAI o4-mini — это компактная модель рассуждений из серии o, оптимизированная для быстрой и экономичной работы при сохранении мощных мультимодальных и агентных возможностей. Она поддерживает использование инструментов и демонстрирует…
- Контекст
- 200К
- Вход
- 89,81 ₽/М
- Выход
- 359,22 ₽/М
от openai · 16 апр. 2025 г.
OpenAI: o4 Mini Deep Research
openai/o4-mini-deep-research
o4-mini-deep-research — это более быстрая и доступная модель для глубоких исследований от OpenAI, идеально подходящая для решения сложных, многоэтапных исследовательских задач.
- Контекст
- 200К
- Вход
- 163,28 ₽/М
- Выход
- 653,13 ₽/М
от openai · 10 окт. 2025 г.
OpenAI: o4 Mini High
openai/o4-mini-high
OpenAI o4-mini-high — это та же модель, что и [o4-mini](/openai/o4-mini), но с параметром `reasoning_effort`, установленным на `high`.
- Контекст
- 200К
- Вход
- 89,81 ₽/М
- Выход
- 359,22 ₽/М
от openai · 16 апр. 2025 г.
Owl Alpha
openrouter/owl-alpha
Owl Alpha — это высокопроизводительная базовая модель, разработанная для агентских рабочих нагрузок. Она нативно поддерживает использование инструментов и задачи с длинным контекстом, демонстрируя высокую производительность в генерации…
- Контекст
- 1.0М
- Вход
- бесплатно/М
- Выход
- бесплатно/М
от openrouter · 28 апр. 2026 г.
Perplexity: Sonar
perplexity/sonar
Sonar — это легковесный, доступный, быстрый и простой в использовании инструмент, теперь с цитированием и возможностью настройки источников. Он разработан для компаний, которым необходимы легковесные функции вопросов и ответов,…
- Контекст
- 127К
- Вход
- 81,64 ₽/М
- Выход
- 81,64 ₽/М
от perplexity · 27 янв. 2025 г.
Perplexity: Sonar Deep Research
perplexity/sonar-deep-research
Sonar Deep Research — это модель, ориентированная на исследования, разработанная для многоэтапного поиска, синтеза и рассуждений по сложным темам. Она автономно ищет, читает и оценивает источники, уточняя свой подход по мере сбора…
- Контекст
- 128К
- Вход
- 163,28 ₽/М
- Выход
- 653,13 ₽/М
от perplexity · 7 мар. 2025 г.
Perplexity: Sonar Pro
perplexity/sonar-pro
Примечание: Цены Sonar Pro включают цены на поиск Perplexity. Подробности см. [здесь](https://docs.perplexity.ai/guides/pricing#detailed-pricing-breakdown-for-sonar-reasoning-pro-and-sonar-pro)
- Контекст
- 200К
- Вход
- 244,92 ₽/М
- Выход
- 1 224,62 ₽/М
от perplexity · 7 мар. 2025 г.
Perplexity: Sonar Pro Search
perplexity/sonar-pro-search
Доступный исключительно через API OpenRouter, новый режим Pro Search модели Sonar Pro от Perplexity представляет собой самую передовую агентную поисковую систему. Он разработан для более глубокого анализа и рассуждений. Ценообразование…
- Контекст
- 200К
- Вход
- 244,92 ₽/М
- Выход
- 1 224,62 ₽/М
от perplexity · 30 окт. 2025 г.
Perplexity: Sonar Reasoning Pro
perplexity/sonar-reasoning-pro
Примечание: В стоимость Sonar Pro включена стоимость поиска Perplexity. Подробности см. [здесь](https://docs.perplexity.ai/guides/pricing#detailed-pricing-breakdown-for-sonar-reasoning-pro-and-sonar-pro)
- Контекст
- 128К
- Вход
- 163,28 ₽/М
- Выход
- 653,13 ₽/М
от perplexity · 7 мар. 2025 г.
Poolside: Laguna M.1 (free)
poolside/laguna-m.1:free
Laguna M.1 — это флагманская модель кодирующего агента от [Poolside](https://poolside.ai), оптимизированная для сложных задач разработки программного обеспечения. Разработанная для агентских рабочих процессов кодирования, она поддерживает…
- Контекст
- 131К
- Вход
- бесплатно/М
- Выход
- бесплатно/М
от poolside · 28 апр. 2026 г.
Poolside: Laguna XS.2 (free)
poolside/laguna-xs.2:free
Laguna XS.2 — это модель второго поколения в классе размера XS от [Poolside](https://poolside.ai), их серии эффективных кодирующих агентов. Она сочетает возможности вызова инструментов и рассуждения с компактным размером, предлагая...
- Контекст
- 131К
- Вход
- бесплатно/М
- Выход
- бесплатно/М
от poolside · 28 апр. 2026 г.
Prime Intellect: INTELLECT-3
prime-intellect/intellect-3
INTELLECT-3 — это модель Mixture-of-Experts с 106 миллиардами параметров (12 миллиардов активных), дообученная на основе GLM-4.5-Air-Base с использованием контролируемой донастройки (SFT) с последующим крупномасштабным обучением с…
- Контекст
- 131К
- Вход
- 16,33 ₽/М
- Выход
- 89,81 ₽/М
от prime-intellect · 27 нояб. 2025 г.
Qwen: Qwen Plus 0728
qwen/qwen-plus-2025-07-28
Qwen Plus 0728, основанная на базовой модели Qwen3, представляет собой гибридную модель рассуждений с контекстом в 1 миллион токенов, обладающую сбалансированным сочетанием производительности, скорости и стоимости.
- Контекст
- 1.0М
- Вход
- 21,23 ₽/М
- Выход
- 63,68 ₽/М
от qwen · 8 сент. 2025 г.
Qwen: Qwen Plus 0728 (thinking)
qwen/qwen-plus-2025-07-28:thinking
Qwen Plus 0728, основанная на базовой модели Qwen3, представляет собой гибридную модель рассуждений с контекстом в 1 миллион токенов, обладающую сбалансированным сочетанием производительности, скорости и стоимости.
- Контекст
- 1.0М
- Вход
- 21,23 ₽/М
- Выход
- 63,68 ₽/М
от qwen · 8 сент. 2025 г.
Qwen: Qwen VL Max
qwen/qwen-vl-max
Qwen VL Max — это модель визуального понимания с длиной контекста 7500 токенов. Она превосходно справляется с широким спектром сложных задач, обеспечивая оптимальную производительность.
- Контекст
- 131К
- Вход
- 42,45 ₽/М
- Выход
- 169,81 ₽/М
от qwen · 1 февр. 2025 г.
Qwen: Qwen VL Plus
qwen/qwen-vl-plus
Улучшенная большая визуальная языковая модель Qwen. Значительно улучшена для детализированных возможностей распознавания и способностей распознавания текста, поддерживая сверхвысокое разрешение до миллионов пикселей и экстремальные…
- Контекст
- 131К
- Вход
- 11,14 ₽/М
- Выход
- 33,43 ₽/М
от qwen · 5 февр. 2025 г.
Qwen: Qwen-Max
qwen/qwen-max
Qwen-Max, основанная на Qwen2.5, обеспечивает лучшую производительность вывода среди [моделей Qwen](/qwen), особенно для сложных многоэтапных задач. Это крупномасштабная модель MoE, которая была предварительно обучена на более чем 20…
- Контекст
- 33К
- Вход
- 84,91 ₽/М
- Выход
- 339,63 ₽/М
от qwen · 1 февр. 2025 г.
Qwen: Qwen-Plus
qwen/qwen-plus
Qwen-Plus, основанная на базовой модели Qwen2.5, представляет собой модель с контекстом 131K, обладающую сбалансированным сочетанием производительности, скорости и стоимости.
- Контекст
- 1.0М
- Вход
- 21,23 ₽/М
- Выход
- 63,68 ₽/М
от qwen · 1 февр. 2025 г.
Qwen: Qwen-Turbo
qwen/qwen-turbo
Qwen-Turbo, основанная на Qwen2.5, — это модель с контекстом 1M, которая обеспечивает высокую скорость и низкую стоимость, подходящая для простых задач.
- Контекст
- 131К
- Вход
- 2,65 ₽/М
- Выход
- 10,61 ₽/М
от qwen · 1 февр. 2025 г.
Qwen: Qwen2.5 7B Instruct
qwen/qwen-2.5-7b-instruct
Qwen2.5 7B — это новейшая серия больших языковых моделей Qwen. Qwen2.5 включает следующие улучшения по сравнению с Qwen2:
- Контекст
- 33К
- Вход
- 3,27 ₽/М
- Выход
- 8,16 ₽/М
от qwen · 16 окт. 2024 г.
Qwen: Qwen2.5 VL 72B Instruct
qwen/qwen2.5-vl-72b-instruct
Qwen2.5-VL отлично распознает распространенные объекты, такие как цветы, птицы, рыбы и насекомые. Он также обладает высокой способностью анализировать тексты, диаграммы, значки, графику и макеты внутри изображений.
- Контекст
- 32К
- Вход
- 20,41 ₽/М
- Выход
- 61,23 ₽/М
от qwen · 1 февр. 2025 г.
Qwen: Qwen3 14B
qwen/qwen3-14b
Qwen3-14B — это плотная причинная языковая модель с 14,8 миллиардами параметров из серии Qwen3, разработанная как для сложного рассуждения, так и для эффективного диалога. Она поддерживает бесшовное переключение между режимом «мышления»…
- Контекст
- 41К
- Вход
- 4,90 ₽/М
- Выход
- 19,59 ₽/М
от qwen · 28 апр. 2025 г.
Qwen: Qwen3 235B A22B
qwen/qwen3-235b-a22b
Qwen3-235B-A22B — это модель Mixture-of-Experts (MoE) с 235 миллиардами параметров, разработанная Qwen, активирующая 22 миллиарда параметров за один прямой проход. Она поддерживает бесшовное переключение между режимом «мышления» для…
- Контекст
- 131К
- Вход
- 37,15 ₽/М
- Выход
- 148,59 ₽/М
от qwen · 28 апр. 2025 г.
Qwen: Qwen3 235B A22B Instruct 2507
qwen/qwen3-235b-a22b-2507
Qwen3-235B-A22B-Instruct-2507 — это многоязычная, настроенная на инструкции языковая модель типа Mixture-of-Experts, основанная на архитектуре Qwen3-235B, с 22 миллиардами активных параметров на прямой проход. Она оптимизирована для…
- Контекст
- 262К
- Вход
- 5,80 ₽/М
- Выход
- 8,16 ₽/М
от qwen · 21 июл. 2025 г.
Qwen: Qwen3 235B A22B Thinking 2507
qwen/qwen3-235b-a22b-thinking-2507
Qwen3-235B-A22B-Thinking-2507 — это высокопроизводительная языковая модель Mixture-of-Experts (MoE) с открытым весом, оптимизированная для сложных задач рассуждения. Она активирует 22B из своих 235B параметров за один прямой проход и…
- Контекст
- 131К
- Вход
- 12,21 ₽/М
- Выход
- 122,05 ₽/М
от qwen · 25 июл. 2025 г.
Qwen: Qwen3 30B A3B
qwen/qwen3-30b-a3b
Qwen3, последнее поколение серии больших языковых моделей Qwen, включает в себя как плотную архитектуру, так и архитектуру MoE (mixture-of-experts), чтобы преуспеть в рассуждениях, многоязычной поддержке и продвинутых агентских задачах. Её…
- Контекст
- 41К
- Вход
- 6,53 ₽/М
- Выход
- 22,86 ₽/М
от qwen · 28 апр. 2025 г.
Qwen: Qwen3 30B A3B Instruct 2507
qwen/qwen3-30b-a3b-instruct-2507
Qwen3-30B-A3B-Instruct-2507 — это языковая модель Qwen с 30,5 миллиардами параметров, использующая архитектуру MoE, с 3,3 миллиардами активных параметров на вывод. Она работает в немыслящем режиме и предназначена для высококачественного…
- Контекст
- 262К
- Вход
- 7,35 ₽/М
- Выход
- 24,49 ₽/М
от qwen · 29 июл. 2025 г.
Qwen: Qwen3 30B A3B Thinking 2507
qwen/qwen3-30b-a3b-thinking-2507
Qwen3-30B-A3B-Thinking-2507 — это модель рассуждений Mixture-of-Experts с 30 миллиардами параметров, оптимизированная для сложных задач, требующих расширенного многошагового мышления. Модель разработана специально для «режима мышления»,…
- Контекст
- 131К
- Вход
- 6,53 ₽/М
- Выход
- 32,66 ₽/М
от qwen · 28 авг. 2025 г.
Qwen: Qwen3 32B
qwen/qwen3-32b
Qwen3-32B — это причинная языковая модель с плотной архитектурой и 32,8 миллиардами параметров из серии Qwen3, оптимизированная как для сложного рассуждения, так и для эффективного диалога. Она поддерживает бесшовное переключение между…
- Контекст
- 41К
- Вход
- 6,53 ₽/М
- Выход
- 19,59 ₽/М
от qwen · 28 апр. 2025 г.
Qwen: Qwen3 8B
qwen/qwen3-8b
Qwen3-8B — это плотная причинная языковая модель с 8,2 миллиардами параметров из серии Qwen3, разработанная как для задач, требующих интенсивного рассуждения, так и для эффективного диалога. Она поддерживает плавное переключение между…
- Контекст
- 41К
- Вход
- 4,08 ₽/М
- Выход
- 32,66 ₽/М
от qwen · 28 апр. 2025 г.
Qwen: Qwen3 Coder 30B A3B Instruct
qwen/qwen3-coder-30b-a3b-instruct
Qwen3-Coder-30B-A3B-Instruct — это модель Mixture-of-Experts (MoE) с 30,5 миллиардами параметров и 128 экспертами (8 активных за один прямой проход), разработанная для продвинутой генерации кода, понимания репозиториев и использования…
- Контекст
- 160К
- Вход
- 5,71 ₽/М
- Выход
- 22,04 ₽/М
от qwen · 31 июл. 2025 г.
Qwen: Qwen3 Coder 480B A35B
qwen/qwen3-coder
Qwen3-Coder-480B-A35B-Instruct — это модель генерации кода Mixture-of-Experts (MoE), разработанная командой Qwen. Она оптимизирована для агентских задач кодирования, таких как вызов функций, использование инструментов и рассуждения в…
- Контекст
- 262К
- Вход
- 17,96 ₽/М
- Выход
- 146,95 ₽/М
от qwen · 23 июл. 2025 г.
Qwen: Qwen3 Coder 480B A35B (free)
qwen/qwen3-coder:free
Qwen3-Coder-480B-A35B-Instruct — это модель генерации кода Mixture-of-Experts (MoE), разработанная командой Qwen. Она оптимизирована для агентских задач кодирования, таких как вызов функций, использование инструментов и рассуждения в…
- Контекст
- 262К
- Вход
- бесплатно/М
- Выход
- бесплатно/М
от qwen · 23 июл. 2025 г.
Qwen: Qwen3 Coder Flash
qwen/qwen3-coder-flash
Qwen3 Coder Flash — это быстрая и экономичная версия проприетарной модели Qwen3 Coder Plus от Alibaba. Это мощная модель агента для кодирования, специализирующаяся на автономном программировании посредством вызова инструментов и…
- Контекст
- 1.0М
- Вход
- 15,92 ₽/М
- Выход
- 79,60 ₽/М
от qwen · 17 сент. 2025 г.
Qwen: Qwen3 Coder Next
qwen/qwen3-coder-next
Qwen3-Coder-Next — это причинная языковая модель с открытым весом, оптимизированная для кодирующих агентов и локальных рабочих процессов разработки. Она использует разреженную MoE-архитектуру с общим количеством параметров 80B и всего 3B…
- Контекст
- 262К
- Вход
- 9,80 ₽/М
- Выход
- 65,31 ₽/М
от qwen · 4 февр. 2026 г.
Qwen: Qwen3 Coder Plus
qwen/qwen3-coder-plus
Qwen3 Coder Plus — это проприетарная версия Alibaba модели Qwen3 Coder 480B A35B с открытым исходным кодом. Это мощная модель кодирующего агента, специализирующаяся на автономном программировании посредством вызова инструментов и…
- Контекст
- 1.0М
- Вход
- 53,07 ₽/М
- Выход
- 265,33 ₽/М
от qwen · 23 сент. 2025 г.
Qwen: Qwen3 Max
qwen/qwen3-max
Qwen3-Max — это обновленный релиз, основанный на серии Qwen3, предлагающий значительные улучшения в рассуждениях, следовании инструкциям, многоязычной поддержке и охвате знаний с длинным хвостом по сравнению с версией от января 2025 года.…
- Контекст
- 262К
- Вход
- 63,68 ₽/М
- Выход
- 318,40 ₽/М
от qwen · 23 сент. 2025 г.
Qwen: Qwen3 Max Thinking
qwen/qwen3-max-thinking
Qwen3-Max-Thinking — это флагманская модель рассуждений в серии Qwen3, разработанная для высокоответственных когнитивных задач, требующих глубоких, многошаговых рассуждений. За счет значительного увеличения мощности модели и вычислительных…
- Контекст
- 262К
- Вход
- 63,68 ₽/М
- Выход
- 318,40 ₽/М
от qwen · 9 февр. 2026 г.
Qwen: Qwen3 Next 80B A3B Instruct
qwen/qwen3-next-80b-a3b-instruct
Qwen3-Next-80B-A3B-Instruct — это чат-модель из серии Qwen3-Next, настроенная на выполнение инструкций и оптимизированная для быстрых, стабильных ответов без следов «размышлений». Она предназначена для решения сложных задач, связанных с…
- Контекст
- 262К
- Вход
- 7,35 ₽/М
- Выход
- 89,81 ₽/М
от qwen · 11 сент. 2025 г.
Qwen: Qwen3 Next 80B A3B Instruct (free)
qwen/qwen3-next-80b-a3b-instruct:free
Qwen3-Next-80B-A3B-Instruct — это чат-модель серии Qwen3-Next, настроенная на инструкции и оптимизированная для быстрых, стабильных ответов без следов «размышлений». Она предназначена для решения сложных задач, связанных с рассуждениями,…
- Контекст
- 262К
- Вход
- бесплатно/М
- Выход
- бесплатно/М
от qwen · 11 сент. 2025 г.
Qwen: Qwen3 Next 80B A3B Thinking
qwen/qwen3-next-80b-a3b-thinking
Qwen3-Next-80B-A3B-Thinking — это чат-модель, ориентированная на рассуждения, из линейки Qwen3-Next, которая по умолчанию выводит структурированные трассировки «мышления». Она разработана для решения сложных многошаговых задач:…
- Контекст
- 131К
- Вход
- 7,96 ₽/М
- Выход
- 63,68 ₽/М
от qwen · 11 сент. 2025 г.
Qwen: Qwen3 VL 235B A22B Instruct
qwen/qwen3-vl-235b-a22b-instruct
Qwen3-VL-235B-A22B Instruct — это открытая мультимодальная модель, которая объединяет мощную генерацию текста с визуальным пониманием изображений и видео. Модель Instruct предназначена для общего использования в задачах «зрение-язык» (VQA,…
- Контекст
- 262К
- Вход
- 16,33 ₽/М
- Выход
- 71,84 ₽/М
от qwen · 23 сент. 2025 г.
Qwen: Qwen3 VL 235B A22B Thinking
qwen/qwen3-vl-235b-a22b-thinking
Qwen3-VL-235B-A22B Thinking — это мультимодальная модель, которая объединяет мощную генерацию текста с визуальным пониманием изображений и видео. Модель Thinking оптимизирована для мультимодального рассуждения в STEM и математике. Серия…
- Контекст
- 131К
- Вход
- 21,23 ₽/М
- Выход
- 212,27 ₽/М
от qwen · 23 сент. 2025 г.
Qwen: Qwen3 VL 30B A3B Instruct
qwen/qwen3-vl-30b-a3b-instruct
Qwen3-VL-30B-A3B-Instruct — это мультимодальная модель, которая объединяет мощную генерацию текста с визуальным пониманием изображений и видео. Её вариант Instruct оптимизирует следование инструкциям для общих мультимодальных задач. Модель…
- Контекст
- 131К
- Вход
- 10,61 ₽/М
- Выход
- 42,45 ₽/М
от qwen · 6 окт. 2025 г.
Qwen: Qwen3 VL 30B A3B Thinking
qwen/qwen3-vl-30b-a3b-thinking
Qwen3-VL-30B-A3B-Thinking — это мультимодальная модель, которая объединяет мощную генерацию текста с визуальным пониманием изображений и видео. Её вариант Thinking улучшает рассуждения в STEM, математике и сложных задачах. Она превосходно…
- Контекст
- 131К
- Вход
- 10,61 ₽/М
- Выход
- 127,36 ₽/М
от qwen · 6 окт. 2025 г.
Qwen: Qwen3 VL 32B Instruct
qwen/qwen3-vl-32b-instruct
Qwen3-VL-32B-Instruct — это крупномасштабная мультимодальная визуально-языковая модель, разработанная для высокоточного понимания и рассуждения на основе текста, изображений и видео. Обладая 32 миллиардами параметров, она сочетает глубокое…
- Контекст
- 131К
- Вход
- 8,49 ₽/М
- Выход
- 33,96 ₽/М
от qwen · 23 окт. 2025 г.
Qwen: Qwen3 VL 8B Instruct
qwen/qwen3-vl-8b-instruct
Qwen3-VL-8B-Instruct — это мультимодальная визуально-языковая модель из серии Qwen3-VL, созданная для высокоточного понимания и рассуждения на основе текста, изображений и видео. Она отличается улучшенным мультимодальным слиянием с…
- Контекст
- 131К
- Вход
- 6,53 ₽/М
- Выход
- 40,82 ₽/М
от qwen · 14 окт. 2025 г.
Qwen: Qwen3 VL 8B Thinking
qwen/qwen3-vl-8b-thinking
Qwen3-VL-8B-Thinking — это вариант мультимодальной модели Qwen3-VL-8B, оптимизированный для рассуждений, разработанный для продвинутого визуального и текстового анализа в сложных сценах, документах и временных последовательностях. Он…
- Контекст
- 131К
- Вход
- 9,55 ₽/М
- Выход
- 111,44 ₽/М
от qwen · 14 окт. 2025 г.
Qwen: Qwen3.5 397B A17B
qwen/qwen3.5-397b-a17b
Нативная визуально-языковая модель Qwen3.5 серии 397B-A17B построена на гибридной архитектуре, которая объединяет механизм линейного внимания с разреженной моделью mixture-of-experts, достигая более высокой эффективности инференса. Она…
- Контекст
- 262К
- Вход
- 31,84 ₽/М
- Выход
- 191,04 ₽/М
от qwen · 16 февр. 2026 г.
Qwen: Qwen3.5 Plus 2026-02-15
qwen/qwen3.5-plus-02-15
Модели серии Qwen3.5 native vision-language Plus построены на гибридной архитектуре, которая объединяет механизмы линейного внимания с моделями разреженной смеси экспертов (MoE), достигая более высокой эффективности инференса. В различных…
- Контекст
- 1.0М
- Вход
- 21,23 ₽/М
- Выход
- 127,36 ₽/М
от qwen · 16 февр. 2026 г.
Qwen: Qwen3.5 Plus 2026-04-20
qwen/qwen3.5-plus-20260420
Qwen3.5 Plus (апрель 2026) — это крупномасштабная мультиканальная языковая модель от Alibaba. Она принимает на вход текст, изображения и видео, а на выходе генерирует текст, при этом размер контекстного окна составляет 1M токенов. Это…
- Контекст
- 1.0М
- Вход
- 32,66 ₽/М
- Выход
- 195,94 ₽/М
от qwen · 27 апр. 2026 г.
Qwen: Qwen3.5-122B-A10B
qwen/qwen3.5-122b-a10b
Модель Qwen3.5 122B-A10B native vision-language построена на гибридной архитектуре, которая объединяет механизм линейного внимания с разреженной моделью MoE, достигая более высокой эффективности вывода. По общей производительности эта…
- Контекст
- 262К
- Вход
- 21,23 ₽/М
- Выход
- 169,81 ₽/М
от qwen · 25 февр. 2026 г.
Qwen: Qwen3.5-27B
qwen/qwen3.5-27b
Модель Qwen3.5 27B native vision-language Dense включает механизм линейного внимания, обеспечивая быстрое время отклика при балансировании скорости вывода и производительности. Её общие возможности сопоставимы с возможностями…
- Контекст
- 262К
- Вход
- 15,92 ₽/М
- Выход
- 127,36 ₽/М
от qwen · 25 февр. 2026 г.
Qwen: Qwen3.5-35B-A3B
qwen/qwen3.5-35b-a3b
Серия Qwen3.5 35B-A3B — это нативная визуально-языковая модель, разработанная с гибридной архитектурой, которая объединяет механизмы линейного внимания и разреженную модель MoE, достигая более высокой эффективности инференса. Её общая…
- Контекст
- 262К
- Вход
- 13,27 ₽/М
- Выход
- 106,13 ₽/М
от qwen · 25 февр. 2026 г.
Qwen: Qwen3.5-9B
qwen/qwen3.5-9b
Qwen3.5-9B — это мультимодальная базовая модель из семейства Qwen3.5, разработанная для обеспечения мощных возможностей рассуждения, кодирования и визуального понимания в эффективной архитектуре с 9 миллиардами параметров. Она использует…
- Контекст
- 262К
- Вход
- 8,16 ₽/М
- Выход
- 12,25 ₽/М
от qwen · 10 мар. 2026 г.
Qwen: Qwen3.5-Flash
qwen/qwen3.5-flash-02-23
Нативные Flash-модели Qwen3.5 для зрения и языка построены на гибридной архитектуре, которая объединяет механизм линейного внимания с разреженной моделью Mixture-of-Experts, достигая более высокой эффективности вывода. По сравнению с…
- Контекст
- 1.0М
- Вход
- 5,31 ₽/М
- Выход
- 21,23 ₽/М
от qwen · 25 февр. 2026 г.
Qwen: Qwen3.6 27B
qwen/qwen3.6-27b
Qwen3.6 27B — это плотная языковая модель с 27 миллиардами параметров от команды Qwen из Alibaba, выпущенная в апреле 2026 года. Она обладает гибридными мультимодальными возможностями — принимает текстовые, графические и видеовходы — и…
- Контекст
- 262К
- Вход
- 26,13 ₽/М
- Выход
- 261,25 ₽/М
от qwen · 27 апр. 2026 г.
Qwen: Qwen3.6 35B A3B
qwen/qwen3.6-35b-a3b
Qwen3.6-35B-A3B — это открытая мультимодальная модель от Alibaba Cloud с общим количеством параметров 35 миллиардов и 3 миллиардами активных параметров на токен. Она использует гибридную разреженную архитектуру Mixture-of-Experts,…
- Контекст
- 262К
- Вход
- 13,16 ₽/М
- Выход
- 78,80 ₽/М
от qwen · 27 апр. 2026 г.
Qwen: Qwen3.6 Flash
qwen/qwen3.6-flash
Qwen3.6 Flash — это быстрая и эффективная языковая модель из серии Qwen 3.6 от Alibaba. Она поддерживает ввод текста, изображений и видео с контекстным окном в 1 миллион токенов. Многоуровневое ценообразование применяется при использовании…
- Контекст
- 1.0М
- Вход
- 20,41 ₽/М
- Выход
- 122,46 ₽/М
от qwen · 27 апр. 2026 г.
Qwen: Qwen3.6 Max Preview
qwen/qwen3.6-max-preview
Qwen3.6-Max-Preview — это проприетарная передовая модель от Alibaba Cloud, построенная на разреженной архитектуре mixture-of-experts с примерно 1 триллионом общих параметров. Она оптимизирована для агентного кодирования, использования…
- Контекст
- 262К
- Вход
- 84,91 ₽/М
- Выход
- 509,44 ₽/М
от qwen · 27 апр. 2026 г.
Qwen: Qwen3.6 Plus
qwen/qwen3.6-plus
Qwen 3.6 Plus основан на гибридной архитектуре, которая сочетает эффективное линейное внимание с разреженной маршрутизацией mixture-of-experts, обеспечивая высокую масштабируемость и производительность вывода. По сравнению с серией 3.5, он…
- Контекст
- 1.0М
- Вход
- 26,53 ₽/М
- Выход
- 159,20 ₽/М
от qwen · 2 апр. 2026 г.
Qwen2.5 72B Instruct
qwen/qwen-2.5-72b-instruct
Qwen2.5 72B — это новейшая серия больших языковых моделей Qwen. Qwen2.5 включает следующие улучшения по сравнению с Qwen2:
- Контекст
- 33К
- Вход
- 29,39 ₽/М
- Выход
- 32,66 ₽/М
от qwen · 19 сент. 2024 г.
Qwen2.5 Coder 32B Instruct
qwen/qwen-2.5-coder-32b-instruct
Qwen2.5-Coder — это новейшая серия больших языковых моделей Qwen, ориентированных на код (ранее известных как CodeQwen). Qwen2.5-Coder включает следующие улучшения по сравнению с CodeQwen1.5:
- Контекст
- 33К
- Вход
- 53,88 ₽/М
- Выход
- 81,64 ₽/М
от qwen · 11 нояб. 2024 г.
Reka Edge
rekaai/reka-edge
Reka Edge — это чрезвычайно эффективная 7B мультимодальная визуально-языковая модель, которая принимает на вход изображения/видео+текст и генерирует текстовые выходы. Эта модель специально оптимизирована для обеспечения лучшей в отрасли…
- Контекст
- 16К
- Вход
- 8,16 ₽/М
- Выход
- 8,16 ₽/М
от rekaai · 20 мар. 2026 г.
Reka Flash 3
rekaai/reka-flash-3
Reka Flash 3 — это универсальная большая языковая модель с 21 миллиардом параметров, настроенная на выполнение инструкций и разработанная Reka. Она превосходно справляется с общим чатом, задачами кодирования, следованием инструкциям и…
- Контекст
- 66К
- Вход
- 8,16 ₽/М
- Выход
- 16,33 ₽/М
от rekaai · 12 мар. 2025 г.
Relace: Relace Apply 3
relace/relace-apply-3
Relace Apply 3 — это специализированная LLM для патчинга кода, которая интегрирует предложенные ИИ изменения непосредственно в ваши исходные файлы. Она может применять обновления от GPT-4o, Claude и других моделей в ваши файлы со средней…
- Контекст
- 256К
- Вход
- 69,39 ₽/М
- Выход
- 102,05 ₽/М
от relace · 26 сент. 2025 г.
Relace: Relace Search
relace/relace-search
Модель relace-search использует 4-12 инструментов `view_file` и `grep` параллельно для исследования кодовой базы и возврата релевантных файлов по запросу пользователя.
- Контекст
- 256К
- Вход
- 81,64 ₽/М
- Выход
- 244,92 ₽/М
от relace · 8 дек. 2025 г.
ReMM SLERP 13B
undi95/remm-slerp-l2-13b
Повторная попытка создания оригинальной MythoMax-L2-B13, но с обновленными моделями. #merge
- Контекст
- 6К
- Вход
- 36,74 ₽/М
- Выход
- 53,07 ₽/М
от undi95 · 22 июл. 2023 г.
Sao10K: Llama 3 8B Lunaris
sao10k/l3-lunaris-8b
Lunaris 8B — это универсальная модель общего назначения и для ролевых игр, основанная на Llama 3. Она представляет собой стратегическое объединение нескольких моделей, разработанное для баланса между креативностью, улучшенной логикой и…
- Контекст
- 8К
- Вход
- 3,27 ₽/М
- Выход
- 4,08 ₽/М
от sao10k · 13 авг. 2024 г.
Sao10k: Llama 3 Euryale 70B v2.1
sao10k/l3-euryale-70b
Euryale 70B v2.1 — это модель, ориентированная на творческие ролевые игры от [Sao10k](https://ko-fi.com/sao10k).
- Контекст
- 8К
- Вход
- 120,83 ₽/М
- Выход
- 120,83 ₽/М
от sao10k · 18 июн. 2024 г.
Sao10K: Llama 3.1 70B Hanami x1
sao10k/l3.1-70b-hanami-x1
Это эксперимент [Sao10K](/sao10k) над [Euryale v2.2](/sao10k/l3.1-euryale-70b).
- Контекст
- 16К
- Вход
- 244,92 ₽/М
- Выход
- 244,92 ₽/М
от sao10k · 8 янв. 2025 г.
Sao10K: Llama 3.1 Euryale 70B v2.2
sao10k/l3.1-euryale-70b
Euryale L3.1 70B v2.2 — это модель, ориентированная на творческие ролевые игры от [Sao10k](https://ko-fi.com/sao10k). Она является преемником [Euryale L3 70B v2.1](/models/sao10k/l3-euryale-70b).
- Контекст
- 131К
- Вход
- 69,39 ₽/М
- Выход
- 69,39 ₽/М
от sao10k · 28 авг. 2024 г.
Sao10K: Llama 3.3 Euryale 70B
sao10k/l3.3-euryale-70b
Euryale L3.3 70B — это модель, ориентированная на творческие ролевые игры от [Sao10k](https://ko-fi.com/sao10k). Она является преемником [Euryale L3 70B v2.2](/models/sao10k/l3-euryale-70b).
- Контекст
- 131К
- Вход
- 53,07 ₽/М
- Выход
- 61,23 ₽/М
от sao10k · 18 дек. 2024 г.
StepFun: Step 3.5 Flash
stepfun/step-3.5-flash
Шаг 3.5 Flash — самая мощная открытая базовая модель StepFun. Построенная на разреженной архитектуре Mixture of Experts (MoE), она выборочно активирует только 11 миллиардов из своих 196 миллиардов параметров на каждый токен. Это модель…
- Контекст
- 262К
- Вход
- 8,16 ₽/М
- Выход
- 24,49 ₽/М
от stepfun · 29 янв. 2026 г.
Switchpoint Router
switchpoint/router
Маршрутизатор Switchpoint AI мгновенно анализирует ваш запрос и направляет его к оптимальному ИИ из постоянно пополняемой библиотеки.
- Контекст
- 131К
- Вход
- 69,39 ₽/М
- Выход
- 277,58 ₽/М
от switchpoint · 11 июл. 2025 г.
Tencent: Hunyuan A13B Instruct
tencent/hunyuan-a13b-instruct
Hunyuan-A13B — это языковая модель Mixture-of-Experts (MoE) с 13 миллиардами активных параметров, разработанная Tencent, с общим количеством параметров 80 миллиардов и поддержкой рассуждений через Chain-of-Thought. Она демонстрирует…
- Контекст
- 131К
- Вход
- 11,43 ₽/М
- Выход
- 46,54 ₽/М
от tencent · 8 июл. 2025 г.
Tencent: Hy3 preview (free)
tencent/hy3-preview:free
Hy3 preview — это высокоэффективная модель Mixture-of-Experts от Tencent, разработанная для агентских рабочих процессов и использования в производстве. Она поддерживает настраиваемые уровни рассуждений в режимах «отключено», «низкий» и…
- Контекст
- 262К
- Вход
- бесплатно/М
- Выход
- бесплатно/М
от tencent · 22 апр. 2026 г.
TheDrummer: Cydonia 24B V4.1
thedrummer/cydonia-24b-v4.1
Нецензурированная и креативная модель для письма, основанная на Mistral Small 3.2 24B, с хорошей памятью, соблюдением инструкций и интеллектом.
- Контекст
- 131К
- Вход
- 24,49 ₽/М
- Выход
- 40,82 ₽/М
от thedrummer · 27 сент. 2025 г.
TheDrummer: Rocinante 12B
thedrummer/rocinante-12b
Rocinante 12B разработан для увлекательного повествования и богатой прозы.
- Контекст
- 33К
- Вход
- 13,88 ₽/М
- Выход
- 35,11 ₽/М
от thedrummer · 30 сент. 2024 г.
TheDrummer: Skyfall 36B V2
thedrummer/skyfall-36b-v2
Skyfall 36B v2 — это улучшенная итерация Mistral Small 2501, специально доработанная для повышения креативности, тонкости письма, ролевых игр и связного повествования.
- Контекст
- 33К
- Вход
- 44,90 ₽/М
- Выход
- 65,31 ₽/М
от thedrummer · 10 мар. 2025 г.
TheDrummer: UnslopNemo 12B
thedrummer/unslopnemo-12b
UnslopNemo v4.1 — это новейшая разработка от создателя Rocinante, предназначенная для приключенческих и ролевых сценариев.
- Контекст
- 33К
- Вход
- 32,66 ₽/М
- Выход
- 32,66 ₽/М
от thedrummer · 8 нояб. 2024 г.
TNG: DeepSeek R1T2 Chimera
tngtech/deepseek-r1t2-chimera
DeepSeek-TNG-R1T2-Chimera — это модель Chimera второго поколения от TNG Tech. Это модель генерации текста с архитектурой mixture-of-experts (MoE) и 671 миллиардом параметров, собранная из контрольных точек DeepSeek-AI R1-0528, R1 и V3-0324…
- Контекст
- 164К
- Вход
- 24,49 ₽/М
- Выход
- 89,81 ₽/М
от tngtech · 8 июл. 2025 г.
Tongyi DeepResearch 30B A3B
alibaba/tongyi-deepresearch-30b-a3b
Tongyi DeepResearch — это агентная большая языковая модель (LLM), разработанная Tongyi Lab, с общим количеством параметров 30 миллиардов, из которых активируется только 3 миллиарда на токен. Она оптимизирована для задач глубокого поиска…
- Контекст
- 131К
- Вход
- 7,35 ₽/М
- Выход
- 36,74 ₽/М
от alibaba · 18 сент. 2025 г.
Upstage: Solar Pro 3
upstage/solar-pro-3
Solar Pro 3 — это мощная языковая модель MoE (Mixture-of-Experts) от Upstage. Обладая 102 миллиардами общих параметров и 12 миллиардами активных параметров на прямой проход, она обеспечивает исключительную производительность при сохранении…
- Контекст
- 128К
- Вход
- 12,25 ₽/М
- Выход
- 48,98 ₽/М
от upstage · 27 янв. 2026 г.
Venice: Uncensored (free)
cognitivecomputations/dolphin-mistral-24b-venice-edition:free
Venice Uncensored Dolphin Mistral 24B Venice Edition — это тонко настроенный вариант Mistral-Small-24B-Instruct-2501, разработанный dphn.ai в сотрудничестве с Venice.ai. Эта модель разработана как «нецензурированный» LLM, настроенный на…
- Контекст
- 33К
- Вход
- бесплатно/М
- Выход
- бесплатно/М
от cognitivecomputations · 9 июл. 2025 г.
WizardLM-2 8x22B
microsoft/wizardlm-2-8x22b
WizardLM-2 8x22B — это самая передовая модель Wizard от Microsoft AI. Она демонстрирует высококонкурентную производительность по сравнению с ведущими проприетарными моделями и стабильно превосходит все существующие современные…
- Контекст
- 66К
- Вход
- 50,62 ₽/М
- Выход
- 50,62 ₽/М
от microsoft · 16 апр. 2024 г.
Writer: Palmyra X5
writer/palmyra-x5
Palmyra X5 — это самая передовая модель Writer, специально разработанная для создания и масштабирования ИИ-агентов в масштабах предприятия. Она обеспечивает лучшую в отрасли скорость и эффективность при работе с контекстными окнами до 1…
- Контекст
- 1.0М
- Вход
- 48,98 ₽/М
- Выход
- 489,85 ₽/М
от writer · 21 янв. 2026 г.
xAI: Grok 3
x-ai/grok-3
Grok 3 — это новейшая модель от xAI. Это их флагманская модель, которая превосходно справляется с корпоративными задачами, такими как извлечение данных, кодирование и суммаризация текста. Обладает глубокими предметными знаниями в области…
- Контекст
- 131К
- Вход
- 244,92 ₽/М
- Выход
- 1 224,62 ₽/М
от x-ai · 10 июн. 2025 г.
xAI: Grok 3 Beta
x-ai/grok-3-beta
Grok 3 — новейшая модель от xAI. Это их флагманская модель, которая превосходно справляется с корпоративными задачами, такими как извлечение данных, кодирование и суммаризация текста. Обладает глубокими предметными знаниями в области…
- Контекст
- 131К
- Вход
- 244,92 ₽/М
- Выход
- 1 224,62 ₽/М
от x-ai · 9 апр. 2025 г.
xAI: Grok 3 Mini
x-ai/grok-3-mini
Легковесная модель, которая обдумывает ответ перед тем, как его дать. Быстрая, умная и отлично подходит для логических задач, не требующих глубоких предметных знаний. Доступны необработанные трассировки процесса мышления.
- Контекст
- 131К
- Вход
- 24,49 ₽/М
- Выход
- 40,82 ₽/М
от x-ai · 10 июн. 2025 г.
xAI: Grok 3 Mini Beta
x-ai/grok-3-mini-beta
Grok 3 Mini — это облегченная, уменьшенная модель мышления. В отличие от традиционных моделей, которые генерируют ответы немедленно, Grok 3 Mini сначала обдумывает, а затем отвечает. Она идеально подходит для задач, требующих интенсивного…
- Контекст
- 131К
- Вход
- 24,49 ₽/М
- Выход
- 40,82 ₽/М
от x-ai · 9 апр. 2025 г.
xAI: Grok 4
x-ai/grok-4
Grok 4 — это новейшая модель рассуждений от xAI с контекстным окном в 256k. Она поддерживает параллельный вызов инструментов, структурированные выводы, а также ввод изображений и текста. Обратите внимание, что рассуждения не раскрываются,…
- Контекст
- 256К
- Вход
- 244,92 ₽/М
- Выход
- 1 224,62 ₽/М
от x-ai · 9 июл. 2025 г.
xAI: Grok 4 Fast
x-ai/grok-4-fast
Grok 4 Fast — это новейшая мультимодальная модель от xAI с лучшей в своем классе экономичностью и окном контекста в 2 миллиона токенов. Она представлена в двух вариантах: без рассуждений и с рассуждениями. Подробнее о модели читайте в…
- Контекст
- 2.0М
- Вход
- 16,33 ₽/М
- Выход
- 40,82 ₽/М
от x-ai · 19 сент. 2025 г.
xAI: Grok 4.1 Fast
x-ai/grok-4.1-fast
Grok 4.1 Fast — это лучшая агентная модель xAI для вызова инструментов, которая превосходно проявляет себя в реальных сценариях использования, таких как поддержка клиентов и глубокие исследования. Контекстное окно 2M.
- Контекст
- 2.0М
- Вход
- 16,33 ₽/М
- Выход
- 40,82 ₽/М
от x-ai · 19 нояб. 2025 г.
xAI: Grok 4.20
x-ai/grok-4.20
Grok 4.20 — это новейшая флагманская модель xAI с лидирующей в отрасли скоростью и возможностями вызова агентских инструментов. Она сочетает в себе самый низкий уровень галлюцинаций на рынке со строгим соблюдением инструкций, обеспечивая…
- Контекст
- 2.0М
- Вход
- 102,05 ₽/М
- Выход
- 204,10 ₽/М
от x-ai · 31 мар. 2026 г.
xAI: Grok 4.20 Multi-Agent
x-ai/grok-4.20-multi-agent
Grok 4.20 Multi-Agent — это вариант Grok 4.20 от xAI, разработанный для совместных рабочих процессов на основе агентов. Несколько агентов работают параллельно, чтобы проводить глубокие исследования, координировать использование…
- Контекст
- 2.0М
- Вход
- 163,28 ₽/М
- Выход
- 489,85 ₽/М
от x-ai · 31 мар. 2026 г.
xAI: Grok 4.3
x-ai/grok-4.3
Grok 4.3 — это модель рассуждений от xAI. Она принимает текстовые и графические входные данные с текстовым выводом и подходит для агентских рабочих процессов, задач по следованию инструкциям и приложений, требующих высокой фактической…
- Контекст
- 1.0М
- Вход
- 102,05 ₽/М
- Выход
- 204,10 ₽/М
от x-ai · 30 апр. 2026 г.
xAI: Grok Code Fast 1
x-ai/grok-code-fast-1
Grok Code Fast 1 — это быстрая и экономичная модель рассуждений, которая превосходно справляется с агентским кодированием. Благодаря видимым в ответе трассировкам рассуждений, разработчики могут направлять Grok Code для высококачественных…
- Контекст
- 256К
- Вход
- 16,33 ₽/М
- Выход
- 122,46 ₽/М
от x-ai · 26 авг. 2025 г.
Xiaomi: MiMo-V2-Flash
xiaomi/mimo-v2-flash
MiMo-V2-Flash — это языковая модель с открытым исходным кодом, разработанная Xiaomi. Это модель Mixture-of-Experts с общим количеством параметров 309B и 15B активных параметров, использующая гибридную архитектуру attention. MiMo-V2-Flash…
- Контекст
- 262К
- Вход
- 7,35 ₽/М
- Выход
- 23,68 ₽/М
от xiaomi · 14 дек. 2025 г.
Xiaomi: MiMo-V2-Omni
xiaomi/mimo-v2-omni
MiMo-V2-Omni — это передовая омнимодальная модель, которая нативно обрабатывает изображения, видео и аудиовходы в рамках унифицированной архитектуры. Она сочетает в себе мощное мультимодальное восприятие с агентскими возможностями —…
- Контекст
- 262К
- Вход
- 32,66 ₽/М
- Выход
- 163,28 ₽/М
от xiaomi · 18 мар. 2026 г.
Xiaomi: MiMo-V2-Pro
xiaomi/mimo-v2-pro
MiMo-V2-Pro — это флагманская базовая модель Xiaomi, насчитывающая более 1 триллиона общих параметров и длину контекста в 1 миллион, глубоко оптимизированная для агентных сценариев. Она легко адаптируется к общим агентным фреймворкам,…
- Контекст
- 1.0М
- Вход
- 81,64 ₽/М
- Выход
- 244,92 ₽/М
от xiaomi · 18 мар. 2026 г.
Xiaomi: MiMo-V2.5
xiaomi/mimo-v2.5
MiMo-V2.5 — это нативная омнимодальная модель от Xiaomi. Она обеспечивает производительность агентского уровня Pro примерно при вдвое меньшей стоимости вывода, превосходя MiMo-V2-Omni в мультимодальном восприятии в задачах понимания…
- Контекст
- 1.0М
- Вход
- 32,66 ₽/М
- Выход
- 163,28 ₽/М
от xiaomi · 22 апр. 2026 г.
Xiaomi: MiMo-V2.5-Pro
xiaomi/mimo-v2.5-pro
MiMo-V2.5-Pro — это флагманская модель Xiaomi, демонстрирующая высокую производительность в общих агентских возможностях, сложном программном инжиниринге и долгосрочных задачах, занимая лидирующие позиции в таких бенчмарках, как ClawEval,…
- Контекст
- 1.0М
- Вход
- 81,64 ₽/М
- Выход
- 244,92 ₽/М
от xiaomi · 22 апр. 2026 г.
Z.ai: GLM 4 32B
z-ai/glm-4-32b
GLM 4 32B — это экономичная базовая языковая модель.
- Контекст
- 128К
- Вход
- 8,16 ₽/М
- Выход
- 8,16 ₽/М
от z-ai · 24 июл. 2025 г.
Z.ai: GLM 4.5
z-ai/glm-4.5
GLM-4.5 — наша новейшая флагманская базовая модель, специально разработанная для агентских приложений. Она использует архитектуру Mixture-of-Experts (MoE) и поддерживает контекстную длину до 128 тысяч токенов. GLM-4.5 обеспечивает…
- Контекст
- 131К
- Вход
- 48,98 ₽/М
- Выход
- 179,61 ₽/М
от z-ai · 25 июл. 2025 г.
Z.ai: GLM 4.5 Air
z-ai/glm-4.5-air
GLM-4.5-Air — это облегченный вариант нашего новейшего семейства флагманских моделей, также специально разработанный для агент-ориентированных приложений. Как и GLM-4.5, он использует архитектуру Mixture-of-Experts (MoE), но с более…
- Контекст
- 131К
- Вход
- 10,61 ₽/М
- Выход
- 69,39 ₽/М
от z-ai · 25 июл. 2025 г.
Z.ai: GLM 4.5 Air (free)
z-ai/glm-4.5-air:free
GLM-4.5-Air — это облегченный вариант нашего новейшего семейства флагманских моделей, также специально разработанный для агент-ориентированных приложений. Как и GLM-4.5, он использует архитектуру Mixture-of-Experts (MoE), но с более…
- Контекст
- 131К
- Вход
- бесплатно/М
- Выход
- бесплатно/М
от z-ai · 25 июл. 2025 г.
Z.ai: GLM 4.5V
z-ai/glm-4.5v
GLM-4.5V — это базовая визуально-языковая модель для мультимодальных агентских приложений. Построенная на архитектуре Mixture-of-Experts (MoE) со 106 миллиардами параметров и 12 миллиардами активированных параметров, она достигает…
- Контекст
- 66К
- Вход
- 48,98 ₽/М
- Выход
- 146,95 ₽/М
от z-ai · 11 авг. 2025 г.
Z.ai: GLM 4.6
z-ai/glm-4.6
По сравнению с GLM-4.5, это поколение имеет несколько ключевых улучшений:
- Контекст
- 205К
- Вход
- 31,84 ₽/М
- Выход
- 155,12 ₽/М
от z-ai · 30 сент. 2025 г.
Z.ai: GLM 4.6V
z-ai/glm-4.6v
GLM-4.6V — это большая мультимодальная модель, разработанная для высокоточной визуальной интерпретации и рассуждений в длинном контексте на основе изображений, документов и смешанных медиа. Она поддерживает до 128K токенов, обрабатывает…
- Контекст
- 131К
- Вход
- 24,49 ₽/М
- Выход
- 73,48 ₽/М
от z-ai · 8 дек. 2025 г.
Z.ai: GLM 4.7
z-ai/glm-4.7
GLM-4.7 — это новейшая флагманская модель Z.ai, отличающаяся усовершенствованиями в двух ключевых областях: расширенные возможности программирования и более стабильное многошаговое рассуждение/выполнение. Она демонстрирует значительные…
- Контекст
- 203К
- Вход
- 31,02 ₽/М
- Выход
- 142,06 ₽/М
от z-ai · 22 дек. 2025 г.
Z.ai: GLM 4.7 Flash
z-ai/glm-4.7-flash
Будучи современной моделью класса 30B, GLM-4.7-Flash предлагает новую опцию, которая уравновешивает производительность и эффективность. Она дополнительно оптимизирована для использования в агентском кодировании, усиливая возможности…
- Контекст
- 203К
- Вход
- 4,90 ₽/М
- Выход
- 32,66 ₽/М
от z-ai · 19 янв. 2026 г.
Z.ai: GLM 5
z-ai/glm-5
GLM-5 — это флагманская открытая базовая модель Z.ai, разработанная для проектирования сложных систем и долгосрочных рабочих процессов агентов. Созданная для опытных разработчиков, она обеспечивает производительность производственного…
- Контекст
- 203К
- Вход
- 48,98 ₽/М
- Выход
- 169,81 ₽/М
от z-ai · 11 февр. 2026 г.
Z.ai: GLM 5 Turbo
z-ai/glm-5-turbo
GLM-5 Turbo — это новая модель от Z.ai, разработанная для быстрого вывода и высокой производительности в агент-ориентированных средах, таких как сценарии OpenClaw. Она глубоко оптимизирована для реальных рабочих процессов агентов,…
- Контекст
- 203К
- Вход
- 97,97 ₽/М
- Выход
- 326,56 ₽/М
от z-ai · 15 мар. 2026 г.
Z.ai: GLM 5.1
z-ai/glm-5.1
GLM-5.1 обеспечивает значительный скачок в возможностях кодирования, с особенно заметными улучшениями в решении долгосрочных задач. В отличие от предыдущих моделей, построенных на взаимодействиях минутного уровня, GLM-5.1 может работать…
- Контекст
- 203К
- Вход
- 85,72 ₽/М
- Выход
- 285,74 ₽/М
от z-ai · 7 апр. 2026 г.
Z.ai: GLM 5V Turbo
z-ai/glm-5v-turbo
GLM-5V-Turbo — это первая нативная мультимодальная базовая модель агента от Z.ai, созданная для визуального кодирования и задач, управляемых агентами. Она нативно обрабатывает изображения, видео и текстовые входные данные, превосходно…
- Контекст
- 203К
- Вход
- 97,97 ₽/М
- Выход
- 326,56 ₽/М
от z-ai · 1 апр. 2026 г.