К каталогу

DeepSeek: DeepSeek V3 0324

deepseek/deepseek-chat-v3-0324
Использовать
Выпущена 24 марта 2025 г.|164К контекст|16,33 ₽/М вход|62,86 ₽/М выход

DeepSeek V3, модель с 685 миллиардами параметров и архитектурой Mixture-of-Experts, является последней итерацией флагманского семейства чат-моделей от команды DeepSeek.

Она является преемником модели DeepSeek V3 и демонстрирует очень хорошие результаты в различных задачах.

Провайдер для DeepSeek: DeepSeek V3 0324

Hubris маршрутизирует запросы через OpenRouter к лучшему доступному провайдеру с автоматическим fallback при сбоях.

Контекст
164К
токенов
Макс. ответ
16К
токенов
Вход
16,33 ₽
за 1М токенов
Выход
62,86 ₽
за 1М токенов
Кеш чтение
11,02 ₽
за 1М токенов

Модальности

Вход:ТекстВыход:Текст

Поддерживаемые параметры

frequency_penaltylogit_biasmax_tokensmin_ppresence_penaltyrepetition_penaltyresponse_formatseedstopstructured_outputstemperaturetool_choicetoolstop_ktop_p

Другие модели от deepseek

DeepSeek: DeepSeek V4 Pro

DeepSeek V4 Pro — это крупномасштабная модель Mixture-of-Experts от DeepSeek с общим количеством параметров 1,6T и 49B активированных параметров, поддерживающая контекстное окно в 1M токенов. Она разработана для продвинутого рассуждения, кодирования и рабочих процессов агентов с длительным горизонтом, демонстрируя высокую производительность в тестах по знаниям, математике и разработке программного обеспечения. Построенная на той же архитектуре, что и DeepSeek V4 Flash, она представляет гибридную систему attention для эффективной обработки длинного контекста. Поддерживаются уровни рассуждения `high` и `xhigh`; `xhigh` соответствует максимальному уровню рассуждения. Модель хорошо подходит для сложных рабочих нагрузок, таких как анализ всей кодовой базы, многошаговая автоматизация и крупномасштабный синтез информации, где критически важны как возможности, так и эффективность.

1.0М контекст·от 35,51 ₽

DeepSeek: DeepSeek V4 Flash

DeepSeek V4 Flash — это оптимизированная по эффективности модель Mixture-of-Experts от DeepSeek с общим количеством параметров 284B и 13B активированных параметров, поддерживающая контекстное окно в 1M токенов. Она разработана для быстрого инференса и высокопроизводительных рабочих нагрузок, сохраняя при этом высокую производительность в рассуждениях и кодировании. Модель включает гибридный механизм attention для эффективной обработки длинного контекста. Поддерживаются уровни рассуждений `high` и `xhigh`; `xhigh` соответствует максимальному уровню рассуждений. Она хорошо подходит для таких приложений, как помощники по кодированию, чат-системы и рабочие процессы агентов, где важны скорость отклика и экономическая эффективность.

1.0М контекст·от 11,43 ₽

DeepSeek: DeepSeek V3.2 Speciale

DeepSeek-V3.2-Speciale — это высокопроизводительный вариант DeepSeek-V3.2, оптимизированный для максимальной производительности в рассуждениях и агентных задачах. Он основан на DeepSeek Sparse Attention (DSA) для эффективной обработки длинных контекстов, а затем масштабирует обучение с подкреплением после обучения, чтобы расширить возможности за пределы базовой модели. Согласно отчетам, Speciale превосходит GPT-5 в сложных задачах рассуждения, демонстрируя уровень владения, сравнимый с Gemini-3.0-Pro, при этом сохраняя высокую надежность в кодировании и использовании инструментов. Как и V3.2, он использует крупномасштабный конвейер синтеза агентных задач, который улучшает соответствие и обобщение в интерактивных средах.

164К контекст·от 32,66 ₽

DeepSeek: DeepSeek V3.2

DeepSeek-V3.2 — это большая языковая модель, разработанная для гармоничного сочетания высокой вычислительной эффективности с мощными возможностями рассуждения и использования инструментов агентами. Она представляет DeepSeek Sparse Attention (DSA), механизм разреженного внимания с мелкой детализацией, который снижает затраты на обучение и инференс, сохраняя при этом качество в сценариях с длинным контекстом. Масштабируемая структура пост-обучения с подкреплением дополнительно улучшает рассуждение, демонстрируя производительность класса GPT-5, и модель показала золотые медали на IMO и IOI 2025 года. V3.2 также использует крупномасштабный конвейер синтеза агентских задач для лучшей интеграции рассуждений в настройки использования инструментов, повышая соответствие и обобщение в интерактивных средах. Пользователи могут управлять поведением рассуждения с помощью булевой переменной `reasoning` `enabled`. [Узнайте больше в нашей документации](https://openrouter.ai/docs/use-cases/reasoning-tokens#enable-reasoning-with-default-config)

131К контекст·от 20,57 ₽

DeepSeek: DeepSeek V3.2 Exp

DeepSeek-V3.2-Exp — это экспериментальная большая языковая модель, выпущенная DeepSeek в качестве промежуточного шага между V3.1 и будущими архитектурами. Она представляет DeepSeek Sparse Attention (DSA), мелкозернистый механизм разреженного внимания, разработанный для повышения эффективности обучения и инференса в сценариях с длинным контекстом при сохранении качества вывода. Пользователи могут управлять поведением рассуждений с помощью логического параметра `reasoning` `enabled`. [Узнайте больше в нашей документации](https://openrouter.ai/docs/use-cases/reasoning-tokens#enable-reasoning-with-default-config) Модель обучалась в условиях, соответствующих V3.1-Terminus, чтобы обеспечить прямое сравнение. Бенчмаркинг показывает производительность примерно на уровне V3.1 в задачах рассуждения, кодирования и использования агентских инструментов, с незначительными компромиссами и улучшениями в зависимости от области. Этот выпуск сосредоточен на проверке архитектурных оптимизаций для расширенных длин контекста, а не на повышении точности выполнения задач, что делает его в первую очередь исследовательской моделью для изучения эффективных конструкций transformer.

164К контекст·от 22,04 ₽

DeepSeek: DeepSeek V3.1 Terminus

DeepSeek-V3.1 Terminus — это обновление [DeepSeek V3.1](/deepseek/deepseek-chat-v3.1), которое сохраняет исходные возможности модели, одновременно устраняя проблемы, о которых сообщали пользователи, включая языковую согласованность и возможности агентов, а также дополнительно оптимизируя производительность модели в кодировании и поисковых агентах. Это большая гибридная модель рассуждений (671B параметров, 37B активных), которая поддерживает как режим мышления, так и режим без мышления. Она расширяет базовую модель DeepSeek-V3 двухфазным процессом обучения на длинном контексте, достигая до 128K токенов, и использует микромасштабирование FP8 для эффективного вывода. Пользователи могут управлять поведением рассуждений с помощью булевой переменной `reasoning` `enabled`. [Узнайте больше в нашей документации](https://openrouter.ai/docs/use-cases/reasoning-tokens#enable-reasoning-with-default-config) Модель улучшает использование инструментов, генерацию кода и эффективность рассуждений, достигая производительности, сравнимой с DeepSeek-R1 на сложных бенчмарках, при этом отвечая быстрее. Она поддерживает структурированный вызов инструментов, кодовых агентов и поисковых агентов, что делает ее подходящей для исследований, кодирования и агентских рабочих процессов.

164К контекст·от 17,14 ₽