meta-llama/llama-4-maverickLlama 4 Maverick 17B Instruct (128E) — это высокопроизводительная мультимодальная языковая модель от Meta, построенная на архитектуре смеси экспертов (MoE). Модель включает 128 экспертов и задействует 17 миллиардов активных параметров при каждом проходе, в то время как общее количество параметров составляет 400 миллиардов. Она поддерживает ввод текста и изображений на нескольких языках, а также генерирует текст и программный код на 12 поддерживаемых языках. Maverick оптимизирована для задач компьютерного зрения и обработки естественного языка, прошла обучение с подкреплением для работы в режиме ассистента, логического анализа изображений и универсального мультимодального взаимодействия.
Maverick использует технологию раннего слияния для нативной мультимодальности и обладает контекстным окном в 1 миллион токенов. Модель была обучена на тщательно отобранном наборе данных из открытых и лицензионных источников, а также данных платформ Meta, общим объемом около 22 триллионов токенов. Актуальность знаний ограничена августом 2024 года. Выпущенная 5 апреля 2025 года под лицензией Llama 4 Community, Maverick подходит для исследовательских и коммерческих приложений, требующих глубокого мультимодального понимания и высокой пропускной способности. На платформе alltokens модель доступна для интеграции в различные рабочие процессы.
Параметры, которые поддерживает эта модель в API-запросах
Система автоматически выбирает оптимального провайдера и переключается на резервный при сбоях.
Сравните разных провайдеров на AllTokens
Оценки модели из Artificial Analysis
curl https://api.alltokens.ru/api/v1/chat/completions \
-H "Authorization: Bearer $ALLTOKENS_API_KEY" \
-H "Content-Type: application/json" \
-d '{
"model": "meta-llama/llama-4-maverick",
"messages": [
{"role": "user", "content": "Привет! Кратко объясни, что умеешь."}
]
}'Meta: Llama 4 Maverick от провайдера meta-llama доступна через OpenAI-совместимый API AllTokens.
Страница агрегирует практические параметры для интеграции: стоимость входа и выхода, рабочий контекст, набор поддерживаемых параметров и сигналы для выбора модели под конкретные продакшн-сценарии.
Контекст
1 048 576 токенов
Цена входа
21 ₽ / 1M токенов
Цена выхода
81 ₽ / 1M токенов
Входные модальности
Выходные модальности
Добавлена в каталог
06.02.2026
Meta: Llama Guard 4 12B
meta-llama
Llama Guard 4 — это мультимодальная предварительно обученная модель на базе Llama 4 Scout, дообученная для классификации безопасности контента. Как и предыдущие версии, она может использоваться для проверки как входных данных (классификация промптов), так и ответов языковых моделей (классификация ответов). Модель работает по принципу LLM: она генерирует текст, указывающий, является ли запрос или ответ безопасным или небезопасным. В случае обнаружения угроз модель также перечисляет нарушенные категории контента. Llama Guard 4 настроена для защиты от стандартных категорий угроз MLCommons и разработана для поддержки мультимодальных возможностей Llama 4. Модель объединяет функции предыдущих версий Llama Guard, обеспечивая модерацию контента на английском и нескольких других поддерживаемых языках. Она обладает расширенными возможностями для обработки смешанных промптов, содержащих текст и изображения, включая поддержку нескольких изображений одновременно. Кроме того, Llama Guard 4 интегрирована в API модерации alltokens, обеспечивая надежную классификацию безопасности для текстовых и визуальных данных.
Meta: Llama 4 Scout
meta-llama
Llama 4 Scout 17B Instruct (16E) — это языковая модель на базе архитектуры смеси экспертов (MoE), разработанная Meta. Модель активирует 17 миллиардов параметров из общего числа в 109 миллиардов. Она поддерживает нативный мультимодальный ввод (текст и изображения) и мультиязычный вывод (текст и программный код) на 12 языках. Scout спроектирована для работы в режиме ассистента и визуального анализа, используя 16 экспертов на каждом проходе. Модель обладает контекстным окном в 10 миллионов токенов и обучена на корпусе объемом около 40 триллионов токенов. Созданная для высокой эффективности и локального или коммерческого развертывания, Llama 4 Scout использует технологию раннего слияния для бесшовной интеграции различных модальностей. Модель прошла процедуру настройки инструкций для использования в мультиязычных чатах, генерации описаний к изображениям и задач по распознаванию визуального контента. Выпущенная под лицензией Llama 4 Community License, она обучалась на данных вплоть до августа 2024 года и стала доступна на alltokens 5 апреля 2025 года.
Llama Guard 3 8B
meta-llama
Llama Guard 3 — это предварительно обученная модель на базе Llama-3.1-8B, доработанная для классификации безопасности контента. Как и предыдущие версии, она может использоваться для анализа как входящих запросов к языковым моделям, так и их ответов. Модель работает по принципу LLM: она генерирует текст, указывающий, является ли запрос или ответ безопасным или небезопасным. В случае обнаружения нарушений модель также перечисляет категории контента, которые были нарушены. Llama Guard 3 настроена для защиты от рисков согласно стандартизированной таксономии MLCommons и оптимизирована для поддержки возможностей Llama 3.1. В частности, она обеспечивает модерацию контента на 8 языках и адаптирована для обеспечения безопасности при использовании инструментов поиска и интерпретатора кода. На alltokens модель доступна для интеграции в системы фильтрации трафика.
Meta: Llama 3.3 70B Instruct
meta-llama
Мультиязычная большая языковая модель Meta Llama 3.3 представляет собой предварительно обученную и настроенную на выполнение инструкций генеративную модель объемом 70 миллиардов параметров. Модель оптимизирована для ведения диалогов на нескольких языках и превосходит многие доступные открытые и закрытые чат-модели в популярных отраслевых тестах производительности. Поддерживаемые языки: английский, немецкий, французский, итальянский, португальский, хинди, испанский и тайский. Доступно на alltokens.
Meta: Llama 3.3 70B Instruct (Бесплатно)
meta-llama
Мультиязычная большая языковая модель Meta Llama 3.3 — это предварительно обученная и оптимизированная для инструкций генеративная модель объемом 70 миллиардов параметров (ввод и вывод текста). Модель Llama 3.3, настроенная для работы с текстовыми инструкциями, оптимизирована для сценариев многоязычного диалога и превосходит многие доступные открытые и закрытые чат-модели в популярных отраслевых тестах. Поддерживаемые языки: английский, немецкий, французский, итальянский, португальский, хинди, испанский и тайский. Доступ к модели предоставляется через API alltokens.
Meta: Llama 3.2 11B Vision Instruct
meta-llama
Llama 3.2 11B Vision — это мультимодальная модель с 11 миллиардами параметров, разработанная для решения задач, объединяющих визуальные и текстовые данные. Она демонстрирует отличные результаты в таких областях, как создание описаний к изображениям и визуальные ответы на вопросы, обеспечивая связь между генерацией текста и анализом визуальных образов. Модель прошла предварительное обучение на огромном наборе пар изображений и текстов, что позволяет ей эффективно выполнять сложный и высокоточный анализ визуального контента. Способность интегрировать понимание изображений с обработкой естественного языка делает эту модель идеальным решением для отраслей, требующих комплексных визуально-лингвистических приложений ИИ, включая создание контента, автоматизированное обслуживание клиентов и научные исследования. Использование этой модели регулируется политикой допустимого использования Meta. Доступ к модели осуществляется через API alltokens.
Подробный обзор модели
Новости, изменения цены, ключевые обновления и практические рекомендации по интеграции.
Открыть обзор
Модели для программирования
Выборка кодинг-моделей для разработки: инструменты, reasoning, качество генерации и скорость.
Смотреть подборку
Недорогие модели
Подборка доступных моделей ИИ с низкой стоимостью входных токенов и практичной производительностью.
Смотреть подборку
Модели с длинным контекстом
Список моделей с большим context window для анализа длинных документов, репозиториев и агентных пайплайнов.
Смотреть подборку
Мультимодальные модели
Список мультимодальных LLM-моделей с поддержкой нескольких типов входа для сложных AI-сценариев.
Смотреть подборку