Модель скоро станет недоступна
Эта модель будет удалена из API 15 апреля 2026 г..
inception/mercuryMercury — это первая большая языковая модель на базе диффузии (dLLM). Благодаря использованию инновационного метода дискретной диффузии, модель работает в 5–10 раз быстрее даже таких оптимизированных по скорости решений, как GPT-4.1 Nano и Claude 3.5 Haiku, при этом не уступая им в производительности. Скорость Mercury позволяет разработчикам создавать максимально отзывчивые интерфейсы, включая голосовых помощников, поисковые системы и чат-ботов. Подробности доступны на сайте alltokens.
Параметры, которые поддерживает эта модель в API-запросах
Система автоматически выбирает оптимального провайдера и переключается на резервный при сбоях.
Сравните разных провайдеров на AllTokens
Оценки модели из Artificial Analysis
curl https://api.alltokens.ru/api/v1/chat/completions \
-H "Authorization: Bearer $ALLTOKENS_API_KEY" \
-H "Content-Type: application/json" \
-d '{
"model": "inception/mercury",
"messages": [
{"role": "user", "content": "Привет! Кратко объясни, что умеешь."}
]
}'Inception: Mercury от провайдера inception доступна через OpenAI-совместимый API AllTokens.
Страница агрегирует практические параметры для интеграции: стоимость входа и выхода, рабочий контекст, набор поддерживаемых параметров и сигналы для выбора модели под конкретные продакшн-сценарии.
Контекст
128 000 токенов
Цена входа
34 ₽ / 1M токенов
Цена выхода
101 ₽ / 1M токенов
Входные модальности
Выходные модальности
Добавлена в каталог
06.02.2026
Inception: Mercury 2
inception
Mercury 2 — это невероятно быстрая модель рассуждений и первая модель рассуждений на основе диффузии (dLLM). Вместо последовательной генерации токенов Mercury 2 производит и уточняет несколько токенов параллельно, достигая более 1000 токенов/сек на стандартных GPU. Mercury 2 в 5+ раз быстрее ведущих оптимизированных по скорости моделей, таких как Claude 4.5 Haiku и GPT 5 Mini, при значительно меньшей стоимости. Mercury 2 поддерживает настраиваемые уровни рассуждений, 128K контекста, встроенное использование инструментов и вывод JSON с соответствием схеме. Разработана для рабочих процессов кодирования, где задержка накапливается, для реального голосового поиска и циклов агентов. Совместима с OpenAI API. Подробнее в блоге.
Inception: Mercury Coder
inception
Mercury Coder — это первая большая языковая модель на базе диффузионных алгоритмов. Благодаря инновационному методу дискретной диффузии, модель работает в 5–10 раз быстрее даже таких оптимизированных решений, как Claude 3.5 Haiku и GPT-4o Mini, сохраняя при этом сопоставимый уровень производительности. Скорость Mercury Coder позволяет разработчикам не прерывать рабочий процесс, обеспечивая мгновенные ответы в чате и быстрые предложения по автодополнению кода. В рейтинге Copilot Arena Mercury Coder занимает первое место по скорости и делит второе место по качеству генерации. На платформе alltokens вы можете оценить возможности этой модели в реальном времени.