meta-llama/llama-3.2-1b-instructLlama 3.2 1B — это языковая модель с 1 миллиардом параметров, ориентированная на эффективное выполнение задач обработки естественного языка, таких как суммаризация, ведение диалогов и многоязычный анализ текста. Компактный размер позволяет модели эффективно работать в средах с ограниченными ресурсами, сохраняя при этом высокую производительность.
Поддерживая восемь основных языков с возможностью дообучения на другие, Llama 3.2 1B идеально подходит для компаний и разработчиков, которым требуются легкие, но мощные ИИ-решения. Модель способна работать в различных многоязычных сценариях без высоких требований к вычислительным мощностям, характерных для более крупных моделей.
Использование данной модели регулируется политикой допустимого использования Meta. Доступ к модели осуществляется через alltokens.
Параметры, которые поддерживает эта модель в API-запросах
Система автоматически выбирает оптимального провайдера и переключается на резервный при сбоях.
Сравните разных провайдеров на AllTokens
Оценки модели из Artificial Analysis
curl https://api.alltokens.ru/api/v1/chat/completions \
-H "Authorization: Bearer $ALLTOKENS_API_KEY" \
-H "Content-Type: application/json" \
-d '{
"model": "meta-llama/llama-3.2-1b-instruct",
"messages": [
{"role": "user", "content": "Привет! Кратко объясни, что умеешь."}
]
}'Meta: Llama 3.2 1B Instruct от провайдера meta-llama доступна через OpenAI-совместимый API AllTokens.
Страница агрегирует практические параметры для интеграции: стоимость входа и выхода, рабочий контекст, набор поддерживаемых параметров и сигналы для выбора модели под конкретные продакшн-сценарии.
Контекст
60 000 токенов
Цена входа
4 ₽ / 1M токенов
Цена выхода
27 ₽ / 1M токенов
Входные модальности
Выходные модальности
Добавлена в каталог
06.02.2026
Meta: Llama Guard 4 12B
meta-llama
Llama Guard 4 — это мультимодальная предварительно обученная модель на базе Llama 4 Scout, дообученная для классификации безопасности контента. Как и предыдущие версии, она может использоваться для проверки как входных данных (классификация промптов), так и ответов языковых моделей (классификация ответов). Модель работает по принципу LLM: она генерирует текст, указывающий, является ли запрос или ответ безопасным или небезопасным. В случае обнаружения угроз модель также перечисляет нарушенные категории контента. Llama Guard 4 настроена для защиты от стандартных категорий угроз MLCommons и разработана для поддержки мультимодальных возможностей Llama 4. Модель объединяет функции предыдущих версий Llama Guard, обеспечивая модерацию контента на английском и нескольких других поддерживаемых языках. Она обладает расширенными возможностями для обработки смешанных промптов, содержащих текст и изображения, включая поддержку нескольких изображений одновременно. Кроме того, Llama Guard 4 интегрирована в API модерации alltokens, обеспечивая надежную классификацию безопасности для текстовых и визуальных данных.
Meta: Llama 4 Maverick
meta-llama
Llama 4 Maverick 17B Instruct (128E) — это высокопроизводительная мультимодальная языковая модель от Meta, построенная на архитектуре смеси экспертов (MoE). Модель включает 128 экспертов и задействует 17 миллиардов активных параметров при каждом проходе, в то время как общее количество параметров составляет 400 миллиардов. Она поддерживает ввод текста и изображений на нескольких языках, а также генерирует текст и программный код на 12 поддерживаемых языках. Maverick оптимизирована для задач компьютерного зрения и обработки естественного языка, прошла обучение с подкреплением для работы в режиме ассистента, логического анализа изображений и универсального мультимодального взаимодействия. Maverick использует технологию раннего слияния для нативной мультимодальности и обладает контекстным окном в 1 миллион токенов. Модель была обучена на тщательно отобранном наборе данных из открытых и лицензионных источников, а также данных платформ Meta, общим объемом около 22 триллионов токенов. Актуальность знаний ограничена августом 2024 года. Выпущенная 5 апреля 2025 года под лицензией Llama 4 Community, Maverick подходит для исследовательских и коммерческих приложений, требующих глубокого мультимодального понимания и высокой пропускной способности. На платформе alltokens модель доступна для интеграции в различные рабочие процессы.