meta-llama/llama-guard-3-8bLlama Guard 3 — это предварительно обученная модель на базе Llama-3.1-8B, доработанная для классификации безопасности контента. Как и предыдущие версии, она может использоваться для анализа как входящих запросов к языковым моделям, так и их ответов. Модель работает по принципу LLM: она генерирует текст, указывающий, является ли запрос или ответ безопасным или небезопасным. В случае обнаружения нарушений модель также перечисляет категории контента, которые были нарушены.
Llama Guard 3 настроена для защиты от рисков согласно стандартизированной таксономии MLCommons и оптимизирована для поддержки возможностей Llama 3.1. В частности, она обеспечивает модерацию контента на 8 языках и адаптирована для обеспечения безопасности при использовании инструментов поиска и интерпретатора кода. На alltokens модель доступна для интеграции в системы фильтрации трафика.
Параметры, которые поддерживает эта модель в API-запросах
Система автоматически выбирает оптимального провайдера и переключается на резервный при сбоях.
Сравните разных провайдеров на AllTokens
Оценки модели из Artificial Analysis
curl https://api.alltokens.ru/api/v1/chat/completions \
-H "Authorization: Bearer $ALLTOKENS_API_KEY" \
-H "Content-Type: application/json" \
-d '{
"model": "meta-llama/llama-guard-3-8b",
"messages": [
{"role": "user", "content": "Привет! Кратко объясни, что умеешь."}
]
}'Llama Guard 3 8B от провайдера meta-llama доступна через OpenAI-совместимый API AllTokens.
Страница агрегирует практические параметры для интеграции: стоимость входа и выхода, рабочий контекст, набор поддерживаемых параметров и сигналы для выбора модели под конкретные продакшн-сценарии.
Контекст
131 072 токенов
Цена входа
3 ₽ / 1M токенов
Цена выхода
9 ₽ / 1M токенов
Входные модальности
Выходные модальности
Добавлена в каталог
06.02.2026
Meta: Llama Guard 4 12B
meta-llama
Llama Guard 4 — это мультимодальная предварительно обученная модель на базе Llama 4 Scout, дообученная для классификации безопасности контента. Как и предыдущие версии, она может использоваться для проверки как входных данных (классификация промптов), так и ответов языковых моделей (классификация ответов). Модель работает по принципу LLM: она генерирует текст, указывающий, является ли запрос или ответ безопасным или небезопасным. В случае обнаружения угроз модель также перечисляет нарушенные категории контента. Llama Guard 4 настроена для защиты от стандартных категорий угроз MLCommons и разработана для поддержки мультимодальных возможностей Llama 4. Модель объединяет функции предыдущих версий Llama Guard, обеспечивая модерацию контента на английском и нескольких других поддерживаемых языках. Она обладает расширенными возможностями для обработки смешанных промптов, содержащих текст и изображения, включая поддержку нескольких изображений одновременно. Кроме того, Llama Guard 4 интегрирована в API модерации alltokens, обеспечивая надежную классификацию безопасности для текстовых и визуальных данных.
Meta: Llama 4 Maverick
meta-llama
Llama 4 Maverick 17B Instruct (128E) — это высокопроизводительная мультимодальная языковая модель от Meta, построенная на архитектуре смеси экспертов (MoE). Модель включает 128 экспертов и задействует 17 миллиардов активных параметров при каждом проходе, в то время как общее количество параметров составляет 400 миллиардов. Она поддерживает ввод текста и изображений на нескольких языках, а также генерирует текст и программный код на 12 поддерживаемых языках. Maverick оптимизирована для задач компьютерного зрения и обработки естественного языка, прошла обучение с подкреплением для работы в режиме ассистента, логического анализа изображений и универсального мультимодального взаимодействия. Maverick использует технологию раннего слияния для нативной мультимодальности и обладает контекстным окном в 1 миллион токенов. Модель была обучена на тщательно отобранном наборе данных из открытых и лицензионных источников, а также данных платформ Meta, общим объемом около 22 триллионов токенов. Актуальность знаний ограничена августом 2024 года. Выпущенная 5 апреля 2025 года под лицензией Llama 4 Community, Maverick подходит для исследовательских и коммерческих приложений, требующих глубокого мультимодального понимания и высокой пропускной способности. На платформе alltokens модель доступна для интеграции в различные рабочие процессы.
Подробный обзор модели
Новости, изменения цены, ключевые обновления и практические рекомендации по интеграции.
Открыть обзор
Модели для программирования
Выборка кодинг-моделей для разработки: инструменты, reasoning, качество генерации и скорость.
Смотреть подборку
Недорогие модели
Подборка доступных моделей ИИ с низкой стоимостью входных токенов и практичной производительностью.
Смотреть подборку