meta-llama/llama-3.2-3b-instruct:freeLlama 3.2 3B — это мультиязычная большая языковая модель с 3 миллиардами параметров, оптимизированная для сложных задач обработки естественного языка, таких как ведение диалога, логический вывод и суммаризация текстов. Модель построена на современной архитектуре transformer и поддерживает восемь языков, включая английский, испанский и хинди, с возможностью адаптации под другие языковые группы.
Обученная на массиве из 9 триллионов токенов, Llama 3.2 3B демонстрирует отличные результаты в следовании инструкциям, сложном логическом мышлении и использовании внешних инструментов. Сбалансированная производительность делает ее идеальным решением для приложений, требующих точности и эффективности генерации текста в мультиязычных средах.
Использование данной модели на alltokens регулируется политикой допустимого использования Meta.
Параметры, которые поддерживает эта модель в API-запросах
Система автоматически выбирает оптимального провайдера и переключается на резервный при сбоях.
Сравните разных провайдеров на AllTokens
Оценки модели из Artificial Analysis
curl https://api.alltokens.ru/api/v1/chat/completions \
-H "Authorization: Bearer $ALLTOKENS_API_KEY" \
-H "Content-Type: application/json" \
-d '{
"model": "meta-llama/llama-3.2-3b-instruct:free",
"messages": [
{"role": "user", "content": "Привет! Кратко объясни, что умеешь."}
]
}'Meta: Llama 3.2 3B Instruct (Бесплатно) от провайдера meta-llama доступна через OpenAI-совместимый API AllTokens.
Страница агрегирует практические параметры для интеграции: стоимость входа и выхода, рабочий контекст, набор поддерживаемых параметров и сигналы для выбора модели под конкретные продакшн-сценарии.
Контекст
131 072 токенов
Цена входа
— / 1M токенов
Цена выхода
— / 1M токенов
Входные модальности
Выходные модальности
Meta: Llama Guard 4 12B
meta-llama
Llama Guard 4 — это мультимодальная предварительно обученная модель на базе Llama 4 Scout, дообученная для классификации безопасности контента. Как и предыдущие версии, она может использоваться для проверки как входных данных (классификация промптов), так и ответов языковых моделей (классификация ответов). Модель работает по принципу LLM: она генерирует текст, указывающий, является ли запрос или ответ безопасным или небезопасным. В случае обнаружения угроз модель также перечисляет нарушенные категории контента. Llama Guard 4 настроена для защиты от стандартных категорий угроз MLCommons и разработана для поддержки мультимодальных возможностей Llama 4. Модель объединяет функции предыдущих версий Llama Guard, обеспечивая модерацию контента на английском и нескольких других поддерживаемых языках. Она обладает расширенными возможностями для обработки смешанных промптов, содержащих текст и изображения, включая поддержку нескольких изображений одновременно. Кроме того, Llama Guard 4 интегрирована в API модерации alltokens, обеспечивая надежную классификацию безопасности для текстовых и визуальных данных.
Meta: Llama 4 Maverick
meta-llama
Llama 4 Maverick 17B Instruct (128E) — это высокопроизводительная мультимодальная языковая модель от Meta, построенная на архитектуре смеси экспертов (MoE). Модель включает 128 экспертов и задействует 17 миллиардов активных параметров при каждом проходе, в то время как общее количество параметров составляет 400 миллиардов. Она поддерживает ввод текста и изображений на нескольких языках, а также генерирует текст и программный код на 12 поддерживаемых языках. Maverick оптимизирована для задач компьютерного зрения и обработки естественного языка, прошла обучение с подкреплением для работы в режиме ассистента, логического анализа изображений и универсального мультимодального взаимодействия. Maverick использует технологию раннего слияния для нативной мультимодальности и обладает контекстным окном в 1 миллион токенов. Модель была обучена на тщательно отобранном наборе данных из открытых и лицензионных источников, а также данных платформ Meta, общим объемом около 22 триллионов токенов. Актуальность знаний ограничена августом 2024 года. Выпущенная 5 апреля 2025 года под лицензией Llama 4 Community, Maverick подходит для исследовательских и коммерческих приложений, требующих глубокого мультимодального понимания и высокой пропускной способности. На платформе alltokens модель доступна для интеграции в различные рабочие процессы.
Добавлена в каталог
06.02.2026