DeepSeek: DeepSeek V3.2
deepseek/deepseek-v3.2DeepSeek-V3.2 — это большая языковая модель, разработанная для гармоничного сочетания высокой вычислительной эффективности с мощными возможностями рассуждения и использования инструментов агентами. Она представляет DeepSeek Sparse Attention (DSA), механизм разреженного внимания с мелкой детализацией, который снижает затраты на обучение и инференс, сохраняя при этом качество в сценариях с длинным контекстом. Масштабируемая структура пост-обучения с подкреплением дополнительно улучшает рассуждение, демонстрируя производительность класса GPT-5, и модель показала золотые медали на IMO и IOI 2025 года. V3.2 также использует крупномасштабный конвейер синтеза агентских задач для лучшей интеграции рассуждений в настройки использования инструментов, повышая соответствие и обобщение в интерактивных средах.
Пользователи могут управлять поведением рассуждения с помощью булевой переменной reasoning enabled. Узнайте больше в нашей документации
Провайдер для DeepSeek: DeepSeek V3.2
Hubris маршрутизирует запросы через OpenRouter к лучшему доступному провайдеру с автоматическим fallback при сбоях.
Модальности
Поддерживаемые параметры
Другие модели от deepseek
DeepSeek: DeepSeek V4 Pro
DeepSeek V4 Pro — это крупномасштабная модель Mixture-of-Experts от DeepSeek с общим количеством параметров 1,6T и 49B активированных параметров, поддерживающая контекстное окно в 1M токенов. Она разработана для продвинутого рассуждения, кодирования и рабочих процессов агентов с длительным горизонтом, демонстрируя высокую производительность в тестах по знаниям, математике и разработке программного обеспечения. Построенная на той же архитектуре, что и DeepSeek V4 Flash, она представляет гибридную систему attention для эффективной обработки длинного контекста. Поддерживаются уровни рассуждения `high` и `xhigh`; `xhigh` соответствует максимальному уровню рассуждения. Модель хорошо подходит для сложных рабочих нагрузок, таких как анализ всей кодовой базы, многошаговая автоматизация и крупномасштабный синтез информации, где критически важны как возможности, так и эффективность.
DeepSeek: DeepSeek V4 Flash
DeepSeek V4 Flash — это оптимизированная по эффективности модель Mixture-of-Experts от DeepSeek с общим количеством параметров 284B и 13B активированных параметров, поддерживающая контекстное окно в 1M токенов. Она разработана для быстрого инференса и высокопроизводительных рабочих нагрузок, сохраняя при этом высокую производительность в рассуждениях и кодировании. Модель включает гибридный механизм attention для эффективной обработки длинного контекста. Поддерживаются уровни рассуждений `high` и `xhigh`; `xhigh` соответствует максимальному уровню рассуждений. Она хорошо подходит для таких приложений, как помощники по кодированию, чат-системы и рабочие процессы агентов, где важны скорость отклика и экономическая эффективность.
DeepSeek: DeepSeek V3.2 Speciale
DeepSeek-V3.2-Speciale — это высокопроизводительный вариант DeepSeek-V3.2, оптимизированный для максимальной производительности в рассуждениях и агентных задачах. Он основан на DeepSeek Sparse Attention (DSA) для эффективной обработки длинных контекстов, а затем масштабирует обучение с подкреплением после обучения, чтобы расширить возможности за пределы базовой модели. Согласно отчетам, Speciale превосходит GPT-5 в сложных задачах рассуждения, демонстрируя уровень владения, сравнимый с Gemini-3.0-Pro, при этом сохраняя высокую надежность в кодировании и использовании инструментов. Как и V3.2, он использует крупномасштабный конвейер синтеза агентных задач, который улучшает соответствие и обобщение в интерактивных средах.
DeepSeek: DeepSeek V3.2 Exp
DeepSeek-V3.2-Exp — это экспериментальная большая языковая модель, выпущенная DeepSeek в качестве промежуточного шага между V3.1 и будущими архитектурами. Она представляет DeepSeek Sparse Attention (DSA), мелкозернистый механизм разреженного внимания, разработанный для повышения эффективности обучения и инференса в сценариях с длинным контекстом при сохранении качества вывода. Пользователи могут управлять поведением рассуждений с помощью логического параметра `reasoning` `enabled`. [Узнайте больше в нашей документации](https://openrouter.ai/docs/use-cases/reasoning-tokens#enable-reasoning-with-default-config) Модель обучалась в условиях, соответствующих V3.1-Terminus, чтобы обеспечить прямое сравнение. Бенчмаркинг показывает производительность примерно на уровне V3.1 в задачах рассуждения, кодирования и использования агентских инструментов, с незначительными компромиссами и улучшениями в зависимости от области. Этот выпуск сосредоточен на проверке архитектурных оптимизаций для расширенных длин контекста, а не на повышении точности выполнения задач, что делает его в первую очередь исследовательской моделью для изучения эффективных конструкций transformer.
DeepSeek: DeepSeek V3.1 Terminus
DeepSeek-V3.1 Terminus — это обновление [DeepSeek V3.1](/deepseek/deepseek-chat-v3.1), которое сохраняет исходные возможности модели, одновременно устраняя проблемы, о которых сообщали пользователи, включая языковую согласованность и возможности агентов, а также дополнительно оптимизируя производительность модели в кодировании и поисковых агентах. Это большая гибридная модель рассуждений (671B параметров, 37B активных), которая поддерживает как режим мышления, так и режим без мышления. Она расширяет базовую модель DeepSeek-V3 двухфазным процессом обучения на длинном контексте, достигая до 128K токенов, и использует микромасштабирование FP8 для эффективного вывода. Пользователи могут управлять поведением рассуждений с помощью булевой переменной `reasoning` `enabled`. [Узнайте больше в нашей документации](https://openrouter.ai/docs/use-cases/reasoning-tokens#enable-reasoning-with-default-config) Модель улучшает использование инструментов, генерацию кода и эффективность рассуждений, достигая производительности, сравнимой с DeepSeek-R1 на сложных бенчмарках, при этом отвечая быстрее. Она поддерживает структурированный вызов инструментов, кодовых агентов и поисковых агентов, что делает ее подходящей для исследований, кодирования и агентских рабочих процессов.
DeepSeek: DeepSeek V3.1
DeepSeek-V3.1 — это большая гибридная модель рассуждений (671B параметров, 37B активных), которая поддерживает как режимы мышления, так и не-мышления с помощью шаблонов prompt. Она расширяет базовую модель DeepSeek-V3 двухфазным процессом обучения с длинным контекстом, достигающим до 128K токенов, и использует микромасштабирование FP8 для эффективного вывода. Пользователи могут управлять поведением рассуждений с помощью булевой переменной `reasoning` `enabled`. [Узнайте больше в нашей документации](https://openrouter.ai/docs/use-cases/reasoning-tokens#enable-reasoning-with-default-config) Модель улучшает использование инструментов, генерацию кода и эффективность рассуждений, достигая производительности, сравнимой с DeepSeek-R1 на сложных бенчмарках, при этом отвечая быстрее. Она поддерживает структурированный вызов инструментов, кодовых агентов и поисковых агентов, что делает ее подходящей для исследований, кодирования и агентских рабочих процессов. Она является преемником модели [DeepSeek V3-0324](/deepseek/deepseek-chat-v3-0324) и хорошо справляется с различными задачами.