deepseek/deepseek-r1-distill-qwen-32bDeepSeek R1 Distill Qwen 32B — это дистиллированная большая языковая модель, основанная на архитектуре Qwen 2.5 32B и обученная на ответах DeepSeek R1. Она превосходит OpenAI o1-mini в различных тестах, устанавливая новые стандарты производительности для плотных моделей.
Результаты тестирования модели:
AIME 2024 pass@1: 72.6 MATH-500 pass@1: 94.3 Рейтинг CodeForces: 1691
Благодаря тонкой настройке на данных DeepSeek R1, модель демонстрирует конкурентоспособные результаты, сопоставимые с показателями крупнейших передовых моделей. Доступ к модели осуществляется через API alltokens.
Параметры, которые поддерживает эта модель в API-запросах
Система автоматически выбирает оптимального провайдера и переключается на резервный при сбоях.
Сравните разных провайдеров на AllTokens
Оценки модели из Artificial Analysis
curl https://api.alltokens.ru/api/v1/chat/completions \
-H "Authorization: Bearer $ALLTOKENS_API_KEY" \
-H "Content-Type: application/json" \
-d '{
"model": "deepseek/deepseek-r1-distill-qwen-32b",
"messages": [
{"role": "user", "content": "Привет! Кратко объясни, что умеешь."}
]
}'DeepSeek: R1 Distill Qwen 32B от провайдера deepseek доступна через OpenAI-совместимый API AllTokens.
Страница агрегирует практические параметры для интеграции: стоимость входа и выхода, рабочий контекст, набор поддерживаемых параметров и сигналы для выбора модели под конкретные продакшн-сценарии.
Контекст
32 768 токенов
Цена входа
39 ₽ / 1M токенов
Цена выхода
39 ₽ / 1M токенов
Входные модальности
Выходные модальности
Добавлена в каталог
06.02.2026
DeepSeek: DeepSeek V3.2 Speciale
deepseek
DeepSeek-V3.2-Speciale — это высокопроизводительная модификация модели DeepSeek-V3.2, оптимизированная для решения сложнейших логических задач и автономной работы агентов. Модель использует технологию разреженного внимания DeepSeek Sparse Attention для эффективной обработки длинного контекста, а расширенное обучение с подкреплением на этапе постобучения позволяет ей превосходить базовую версию по всем ключевым показателям. Согласно результатам тестов, Speciale опережает GPT-5 в задачах на сложное логическое мышление и демонстрирует уровень компетенций, сопоставимый с Gemini-3.0-Pro, сохраняя при этом высокую надежность в написании кода и использовании внешних инструментов. Как и базовая версия V3.2, данная модель использует масштабный конвейер синтеза агентских задач, что значительно улучшает исполнительность и обобщающую способность в интерактивных средах. На платформе alltokens модель доступна для интеграции в любые рабочие процессы.
DeepSeek: DeepSeek V3.2
deepseek
DeepSeek-V3.2 — это большая языковая модель, разработанная для обеспечения высокой вычислительной эффективности в сочетании с мощными способностями к рассуждению и использованием инструментов в качестве агента. В модели реализован механизм DeepSeek Sparse Attention (DSA) — мелкозернистое разреженное внимание, которое снижает затраты на обучение и инференс, сохраняя при этом качество работы в сценариях с длинным контекстом. Масштабируемая среда постобучения с помощью обучения с подкреплением значительно улучшает логические способности модели, демонстрируя производительность уровня GPT-5 и результаты на уровне золотых медалей на IMO и IOI 2025 года. V3.2 также использует крупномасштабный конвейер синтеза агентских задач для лучшей интеграции логических выводов в процессы использования инструментов, что повышает точность выполнения инструкций и обобщающую способность в интерактивных средах. Пользователи alltokens могут управлять поведением модели при рассуждении с помощью логического параметра reasoning enabled.
Подробный обзор модели
Новости, изменения цены, ключевые обновления и практические рекомендации по интеграции.
Открыть обзор
Модели для программирования
Выборка кодинг-моделей для разработки: инструменты, reasoning, качество генерации и скорость.
Смотреть подборку
Недорогие модели
Подборка доступных моделей ИИ с низкой стоимостью входных токенов и практичной производительностью.
Смотреть подборку