baidu/qianfan-ocr-fastQianfan-OCR-Fast — это специализированная мультимодальная крупная модель, созданная для оптического распознавания текста (OCR). Используя специализированные данные для обучения OCR и сохраняя при этом универсальный мультимодальный интеллект, она обеспечивает значительное улучшение производительности по сравнению с Qianfan-OCR.
Параметры, которые поддерживает эта модель в API-запросах
Система автоматически выбирает оптимального провайдера и переключается на резервный при сбоях.
Сравните разных провайдеров на AllTokens
Оценки модели из Artificial Analysis
curl https://api.alltokens.ru/api/v1/chat/completions \
-H "Authorization: Bearer $ALLTOKENS_API_KEY" \
-H "Content-Type: application/json" \
-d '{
"model": "baidu/qianfan-ocr-fast",
"messages": [
{"role": "user", "content": "Привет! Кратко объясни, что умеешь."}
]
}'Baidu: Qianfan-OCR-Fast от провайдера baidu доступна через OpenAI-совместимый API AllTokens.
Страница агрегирует практические параметры для интеграции: стоимость входа и выхода, рабочий контекст, набор поддерживаемых параметров и сигналы для выбора модели под конкретные продакшн-сценарии.
Контекст
65 536 токенов
Цена входа
82 ₽ / 1M токенов
Цена выхода
337 ₽ / 1M токенов
Входные модальности
Выходные модальности
Добавлена в каталог
14.05.2026
Baidu Qianfan: CoBuddy (Бесплатно)
baidu
CoBuddy — это модель генерации кода от Baidu, оптимизированная для задач программирования и рабочих процессов AI-агентов. Она обеспечивает высокую пропускную способность при выводе и низкую задержку от начала до конца, с нативной поддержкой инструментов.
Baidu: ERNIE 4.5 21B A3B Thinking
baidu
ERNIE-4.5-21B-A3B-Thinking — это обновленная облегченная модель Baidu на базе архитектуры MoE, оптимизированная для повышения глубины и качества рассуждений. Модель демонстрирует высочайшую производительность при решении логических задач, в математике, науке, программировании, генерации текста и в академических тестах экспертного уровня.
Baidu: ERNIE 4.5 21B A3B
baidu
Высокотехнологичная текстовая модель на базе архитектуры Mixture-of-Experts (MoE) с общим числом параметров 21 млрд, из которых 3 млрд активируются для каждого токена. Модель обеспечивает исключительное мультимодальное понимание и генерацию благодаря гетерогенным структурам MoE и изолированной маршрутизации по модальностям. Поддерживая расширенное контекстное окно в 131 000 токенов, система достигает высокой эффективности логического вывода за счет параллельного взаимодействия экспертов и квантования. Передовые методы дообучения, включая SFT, DPO и UPO, гарантируют оптимизированную производительность в различных сценариях использования, а специализированная маршрутизация и механизмы балансировки потерь обеспечивают превосходное выполнение сложных задач. Доступно на alltokens.
Подробный обзор модели
Новости, изменения цены, ключевые обновления и практические рекомендации по интеграции.
Открыть обзор
Модели для программирования
Выборка кодинг-моделей для разработки: инструменты, reasoning, качество генерации и скорость.
Смотреть подборку
Мультимодальные модели
Список мультимодальных LLM-моделей с поддержкой нескольких типов входа для сложных AI-сценариев.
Смотреть подборку