К каталогу

Baidu Qianfan: CoBuddy (free)

baidu/cobuddy:free
Использовать
Выпущена 6 мая 2026 г.|131К контекст|бесплатно/М вход|бесплатно/М выход

CoBuddy is a code generation model from Baidu, optimized for coding tasks and AI Agent workflows. It features high inference throughput and low end-to-end latency, with native support for tool...

Провайдер для Baidu Qianfan: CoBuddy (free)

Hubris маршрутизирует запросы к лучшему доступному провайдеру с автоматическим fallback при сбоях.

Контекст
131К
токенов
Макс. ответ
66К
токенов
Вход
бесплатно
за 1М токенов
Выход
бесплатно
за 1М токенов

Модальности

Вход:ТекстВыход:Текст

Поддерживаемые параметры

include_reasoningmax_tokensreasoningstoptools

Другие модели от baidu

Baidu: Qianfan-OCR-Fast (free)

Qianfan-OCR-Fast — это предметно-ориентированная мультимодальная большая модель, специально разработанная для оптического распознавания символов (OCR). Используя специализированные обучающие данные для OCR и сохраняя универсальный мультимодальный интеллект, она обеспечивает значительное повышение производительности по сравнению с Qianfan-OCR.

66К контекст·от бесплатно

Baidu: ERNIE 4.5 21B A3B Thinking

ERNIE-4.5-21B-A3B-Thinking — это обновленная облегченная модель MoE от Baidu, усовершенствованная для повышения глубины и качества рассуждений с целью достижения наивысшей производительности в логических головоломках, математике, естественных науках, кодировании, генерации текста и академических бенчмарках экспертного уровня.

131К контекст·от 5,75 ₽

Baidu: ERNIE 4.5 21B A3B

Сложная текстовая модель Mixture-of-Experts (MoE) с общим количеством параметров 21B и 3B активированными на токен, обеспечивающая исключительное мультимодальное понимание и генерацию благодаря гетерогенным структурам MoE и маршрутизации, изолированной по модальностям. Поддерживая обширную длину контекста в 131K токенов, модель достигает эффективного вывода за счет параллельного взаимодействия нескольких экспертов и квантования, в то время как передовые методы пост-обучения, включая SFT, DPO и UPO, обеспечивают оптимизированную производительность в различных приложениях со специализированной маршрутизацией и балансировкой потерь для превосходной обработки задач.

120К контекст·от 5,75 ₽

Baidu: ERNIE 4.5 VL 28B A3B

Мощная мультимодальная чат-модель Mixture-of-Experts с общим количеством параметров 28B, из которых 3B активируются на каждый токен, обеспечивающая исключительное понимание текста и изображений благодаря инновационной гетерогенной структуре MoE с маршрутизацией, изолированной по модальности. Модель построена на масштабируемой инфраструктуре для высокопроизводительного обучения и инференса, использует передовые методы пост-обучения, включая SFT, DPO и UPO для оптимизации производительности, при этом поддерживает впечатляющую длину контекста 131K и выравнивание RLVR для превосходных возможностей кросс-модального рассуждения и генерации.

30К контекст·от 11,49 ₽

Baidu: ERNIE 4.5 VL 424B A47B

ERNIE-4.5-VL-424B-A47B — это мультимодальная модель Mixture-of-Experts (MoE) из серии ERNIE 4.5 от Baidu, имеющая 424 миллиарда общих параметров, из которых 47 миллиардов активны на каждый токен. Она обучена совместно на текстовых и графических данных с использованием гетерогенной архитектуры MoE и маршрутизации, изолированной по модальностям, для обеспечения высокоточной кросс-модальной аргументации, понимания изображений и генерации длинного контекста (до 131 тысячи токенов). Доработанная с помощью таких методов, как SFT, DPO, UPO и RLVR, эта модель поддерживает как «мыслящие», так и немыслящие режимы вывода. Разработанная для задач «зрение-язык» на английском и китайском языках, она оптимизирована для эффективного масштабирования и может работать с 4-битным/8-битным квантованием.

123К контекст·от 34,48 ₽

Baidu: ERNIE 4.5 300B A47B

ERNIE-4.5-300B-A47B — это языковая модель Mixture-of-Experts (MoE) с 300 миллиардами параметров, разработанная Baidu как часть серии ERNIE 4.5. Она активирует 47 миллиардов параметров на токен и поддерживает генерацию текста как на английском, так и на китайском языках. Оптимизированная для высокопроизводительного вывода и эффективного масштабирования, она использует гетерогенную структуру MoE с передовыми стратегиями маршрутизации и квантования, включая форматы FP8 и 2-бит. Эта версия тонко настроена для задач, связанных только с языком, и поддерживает рассуждения, параметры инструментов и расширенную длину контекста до 131 тысячи токенов. Подходит для LLM-приложений общего назначения с высокими требованиями к рассуждениям и пропускной способности.

123К контекст·от 22,99 ₽