Microsoft: Phi 4 Mini Instruct
microsoft/phi-4-mini-instructPhi-4-mini-instruct is a lightweight open model built upon synthetic data and filtered publicly available websites - with a focus on high-quality, reasoning dense data. The model belongs to the Phi-4 model family and supports 128K token context length. The model underwent an enhancement process, incorporating both supervised fine-tuning and direct preference optimization to support precise instruction adherence and robust safety measures.
Провайдер для Microsoft: Phi 4 Mini Instruct
Hubris маршрутизирует запросы к лучшему доступному провайдеру с автоматическим fallback при сбоях.
Модальности
Поддерживаемые параметры
Другие модели от microsoft
Microsoft: Phi 4
[Microsoft Research](/microsoft) Phi-4 разработан для эффективного выполнения сложных задач рассуждения и может эффективно работать в условиях ограниченной памяти или там, где требуются быстрые ответы. Модель с 14 миллиардами параметров обучалась на сочетании высококачественных синтетических наборов данных, данных с тщательно отобранных веб-сайтов и академических материалов. Она прошла тщательную доработку для точного следования инструкциям и поддержания высоких стандартов безопасности. Наилучшие результаты достигаются при использовании входных данных на английском языке. Для получения дополнительной информации, пожалуйста, ознакомьтесь с [Техническим отчетом Phi-4](https://arxiv.org/pdf/2412.08905)
WizardLM-2 8x22B
WizardLM-2 8x22B — это самая передовая модель Wizard от Microsoft AI. Она демонстрирует высококонкурентную производительность по сравнению с ведущими проприетарными моделями и стабильно превосходит все существующие современные opensource-модели. Это instruct fine-tune модель [Mixtral 8x22B](/models/mistralai/mixtral-8x22b). Чтобы узнать больше о выпуске модели, [нажмите здесь](https://wizardlm.github.io/WizardLM2/). #moe