microsoft/phi-4-mini-instructPhi-4-mini-instruct — это легкая открытая модель, созданная на основе синтетических данных и отфильтрованных общедоступных веб-сайтов, с акцентом на высококачественные данные, насыщенные логическими рассуждениями. Модель относится к семейству Phi-4.
Параметры, которые поддерживает эта модель в API-запросах
Система автоматически выбирает оптимального провайдера и переключается на резервный при сбоях.
Сравните разных провайдеров на AllTokens
Оценки модели из Artificial Analysis
curl https://api.alltokens.ru/api/v1/chat/completions \
-H "Authorization: Bearer $ALLTOKENS_API_KEY" \
-H "Content-Type: application/json" \
-d '{
"model": "microsoft/phi-4-mini-instruct",
"messages": [
{"role": "user", "content": "Привет! Кратко объясни, что умеешь."}
]
}'Microsoft: Phi 4 Mini Instruct от провайдера microsoft доступна через OpenAI-совместимый API AllTokens.
Страница агрегирует практические параметры для интеграции: стоимость входа и выхода, рабочий контекст, набор поддерживаемых параметров и сигналы для выбора модели под конкретные продакшн-сценарии.
Контекст
128 000 токенов
Цена входа
10 ₽ / 1M токенов
Цена выхода
44 ₽ / 1M токенов
Входные модальности
Выходные модальности
Добавлена в каталог
05.05.2026
Microsoft: Phi 4
microsoft
Microsoft Research Phi-4 разработана для эффективного решения сложных логических задач и способна быстро работать в условиях ограниченной памяти или при необходимости мгновенного отклика. Модель с 14 миллиардами параметров была обучена на сочетании высококачественных синтетических наборов данных, отобранного контента из веб-источников и академических материалов. Она прошла тщательную доработку для точного следования инструкциям и соблюдения строгих стандартов безопасности. Наилучшие результаты модель демонстрирует при работе с запросами на английском языке.
WizardLM-2 8x22B
microsoft
WizardLM-2 8x22B — это самая продвинутая модель в линейке Wizard от Microsoft AI. Она демонстрирует высокую производительность, сопоставимую с ведущими проприетарными решениями, и стабильно превосходит все существующие современные модели с открытым исходным кодом. Модель представляет собой инструктивную дообученную версию Mixtral 8x22B, использующую архитектуру смеси экспертов (MoE). Доступ к модели осуществляется через API alltokens.