К каталогу

Microsoft: Phi 4 Mini Instruct

microsoft/phi-4-mini-instruct
Использовать
Выпущена 17 октября 2025 г.|128К контекст|6,40 ₽/М вход|28,02 ₽/М выход

Phi-4-mini-instruct is a lightweight open model built upon synthetic data and filtered publicly available websites - with a focus on high-quality, reasoning dense data. The model belongs to the Phi-4 model family and supports 128K token context length. The model underwent an enhancement process, incorporating both supervised fine-tuning and direct preference optimization to support precise instruction adherence and robust safety measures.

Провайдер для Microsoft: Phi 4 Mini Instruct

Hubris маршрутизирует запросы к лучшему доступному провайдеру с автоматическим fallback при сбоях.

microsoft
Контекст
128К
токенов
Макс. ответ
128К
токенов
Вход
6,40 ₽
за 1М токенов
Выход
28,02 ₽
за 1М токенов
Кеш чтение
6,40 ₽
за 1М токенов

Модальности

Вход:ТекстВыход:Текст

Поддерживаемые параметры

frequency_penaltymax_tokenspresence_penaltyrepetition_penaltyresponse_formatseedstopstructured_outputstemperaturetop_ktop_p

Другие модели от microsoft

Microsoft: Phi 4

[Microsoft Research](/microsoft) Phi-4 разработан для эффективного выполнения сложных задач рассуждения и может эффективно работать в условиях ограниченной памяти или там, где требуются быстрые ответы. Модель с 14 миллиардами параметров обучалась на сочетании высококачественных синтетических наборов данных, данных с тщательно отобранных веб-сайтов и академических материалов. Она прошла тщательную доработку для точного следования инструкциям и поддержания высоких стандартов безопасности. Наилучшие результаты достигаются при использовании входных данных на английском языке. Для получения дополнительной информации, пожалуйста, ознакомьтесь с [Техническим отчетом Phi-4](https://arxiv.org/pdf/2412.08905)

16К контекст·от 5,20 ₽

WizardLM-2 8x22B

WizardLM-2 8x22B — это самая передовая модель Wizard от Microsoft AI. Она демонстрирует высококонкурентную производительность по сравнению с ведущими проприетарными моделями и стабильно превосходит все существующие современные opensource-модели. Это instruct fine-tune модель [Mixtral 8x22B](/models/mistralai/mixtral-8x22b). Чтобы узнать больше о выпуске модели, [нажмите здесь](https://wizardlm.github.io/WizardLM2/). #moe

66К контекст·от 49,63 ₽