К каталогу

Baidu: ERNIE 4.5 VL 28B A3B

baidu/ernie-4.5-vl-28b-a3b
Использовать
Выпущена 12 августа 2025 г.|30К контекст|11,43 ₽/М вход|45,72 ₽/М выход

Мощная мультимодальная чат-модель Mixture-of-Experts с общим количеством параметров 28B, из которых 3B активируются на каждый токен, обеспечивающая исключительное понимание текста и изображений благодаря инновационной гетерогенной структуре MoE с маршрутизацией, изолированной по модальности. Модель построена на масштабируемой инфраструктуре для высокопроизводительного обучения и инференса, использует передовые методы пост-обучения, включая SFT, DPO и UPO для оптимизации производительности, при этом поддерживает впечатляющую длину контекста 131K и выравнивание RLVR для превосходных возможностей кросс-модального рассуждения и генерации.

Провайдер для Baidu: ERNIE 4.5 VL 28B A3B

Hubris маршрутизирует запросы через OpenRouter к лучшему доступному провайдеру с автоматическим fallback при сбоях.

Контекст
30К
токенов
Макс. ответ
токенов
Вход
11,43 ₽
за 1М токенов
Выход
45,72 ₽
за 1М токенов

Модальности

Вход:ТекстИзображенияВыход:Текст

Поддерживаемые параметры

frequency_penaltyinclude_reasoningmax_tokenspresence_penaltyreasoningrepetition_penaltyseedstoptemperaturetool_choicetoolstop_ktop_p

Другие модели от baidu

Baidu: Qianfan-OCR-Fast (free)

Qianfan-OCR-Fast — это предметно-ориентированная мультимодальная большая модель, специально разработанная для оптического распознавания символов (OCR). Используя специализированные обучающие данные для OCR и сохраняя универсальный мультимодальный интеллект, она обеспечивает значительное повышение производительности по сравнению с Qianfan-OCR.

66К контекст·от бесплатно

Baidu: ERNIE 4.5 21B A3B Thinking

ERNIE-4.5-21B-A3B-Thinking — это обновленная облегченная модель MoE от Baidu, усовершенствованная для повышения глубины и качества рассуждений с целью достижения наивысшей производительности в логических головоломках, математике, естественных науках, кодировании, генерации текста и академических бенчмарках экспертного уровня.

131К контекст·от 5,71 ₽

Baidu: ERNIE 4.5 21B A3B

Сложная текстовая модель Mixture-of-Experts (MoE) с общим количеством параметров 21B и 3B активированными на токен, обеспечивающая исключительное мультимодальное понимание и генерацию благодаря гетерогенным структурам MoE и маршрутизации, изолированной по модальностям. Поддерживая обширную длину контекста в 131K токенов, модель достигает эффективного вывода за счет параллельного взаимодействия нескольких экспертов и квантования, в то время как передовые методы пост-обучения, включая SFT, DPO и UPO, обеспечивают оптимизированную производительность в различных приложениях со специализированной маршрутизацией и балансировкой потерь для превосходной обработки задач.

120К контекст·от 5,71 ₽

Baidu: ERNIE 4.5 VL 424B A47B

ERNIE-4.5-VL-424B-A47B — это мультимодальная модель Mixture-of-Experts (MoE) из серии ERNIE 4.5 от Baidu, имеющая 424 миллиарда общих параметров, из которых 47 миллиардов активны на каждый токен. Она обучена совместно на текстовых и графических данных с использованием гетерогенной архитектуры MoE и маршрутизации, изолированной по модальностям, для обеспечения высокоточной кросс-модальной аргументации, понимания изображений и генерации длинного контекста (до 131 тысячи токенов). Доработанная с помощью таких методов, как SFT, DPO, UPO и RLVR, эта модель поддерживает как «мыслящие», так и немыслящие режимы вывода. Разработанная для задач «зрение-язык» на английском и китайском языках, она оптимизирована для эффективного масштабирования и может работать с 4-битным/8-битным квантованием.

123К контекст·от 34,29 ₽

Baidu: ERNIE 4.5 300B A47B

ERNIE-4.5-300B-A47B — это языковая модель Mixture-of-Experts (MoE) с 300 миллиардами параметров, разработанная Baidu как часть серии ERNIE 4.5. Она активирует 47 миллиардов параметров на токен и поддерживает генерацию текста как на английском, так и на китайском языках. Оптимизированная для высокопроизводительного вывода и эффективного масштабирования, она использует гетерогенную структуру MoE с передовыми стратегиями маршрутизации и квантования, включая форматы FP8 и 2-бит. Эта версия тонко настроена для задач, связанных только с языком, и поддерживает рассуждения, параметры инструментов и расширенную длину контекста до 131 тысячи токенов. Подходит для LLM-приложений общего назначения с высокими требованиями к рассуждениям и пропускной способности.

123К контекст·от 22,86 ₽