meta-llama/llama-3.2-3b-instructLlama 3.2 3B — это мультиязычная большая языковая модель с 3 миллиардами параметров, оптимизированная для сложных задач обработки естественного языка, таких как ведение диалога, логический вывод и суммаризация текстов. Модель построена на базе современной архитектуры transformer и поддерживает восемь языков, включая английский, испанский и хинди, с возможностью адаптации под другие языковые группы.
Обученная на массиве данных объемом 9 триллионов токенов, Llama 3.2 3B демонстрирует отличные результаты в следовании инструкциям, сложном рассуждении и использовании внешних инструментов. Сбалансированная производительность делает ее идеальным решением для приложений, требующих точности и эффективности генерации текста в мультиязычных средах.
Использование данной модели регулируется политикой допустимого использования Meta. Доступ к модели осуществляется через API alltokens.
Параметры, которые поддерживает эта модель в API-запросах
Система автоматически выбирает оптимального провайдера и переключается на резервный при сбоях.
Сравните разных провайдеров на AllTokens
Оценки модели из Artificial Analysis
curl https://api.alltokens.ru/api/v1/chat/completions \
-H "Authorization: Bearer $ALLTOKENS_API_KEY" \
-H "Content-Type: application/json" \
-d '{
"model": "meta-llama/llama-3.2-3b-instruct",
"messages": [
{"role": "user", "content": "Привет! Кратко объясни, что умеешь."}
]
}'Meta: Llama 3.2 3B Instruct от провайдера meta-llama доступна через OpenAI-совместимый API AllTokens.
Страница агрегирует практические параметры для интеграции: стоимость входа и выхода, рабочий контекст, набор поддерживаемых параметров и сигналы для выбора модели под конкретные продакшн-сценарии.
Контекст
80 000 токенов
Цена входа
7 ₽ / 1M токенов
Цена выхода
46 ₽ / 1M токенов
Входные модальности
Выходные модальности
Добавлена в каталог
06.02.2026
Meta: Llama Guard 4 12B
meta-llama
Llama Guard 4 — это мультимодальная предварительно обученная модель на базе Llama 4 Scout, дообученная для классификации безопасности контента. Как и предыдущие версии, она может использоваться для проверки как входных данных (классификация промптов), так и ответов языковых моделей (классификация ответов). Модель работает по принципу LLM: она генерирует текст, указывающий, является ли запрос или ответ безопасным или небезопасным. В случае обнаружения угроз модель также перечисляет нарушенные категории контента. Llama Guard 4 настроена для защиты от стандартных категорий угроз MLCommons и разработана для поддержки мультимодальных возможностей Llama 4. Модель объединяет функции предыдущих версий Llama Guard, обеспечивая модерацию контента на английском и нескольких других поддерживаемых языках. Она обладает расширенными возможностями для обработки смешанных промптов, содержащих текст и изображения, включая поддержку нескольких изображений одновременно. Кроме того, Llama Guard 4 интегрирована в API модерации alltokens, обеспечивая надежную классификацию безопасности для текстовых и визуальных данных.
Meta: Llama 4 Maverick
meta-llama
Llama 4 Maverick 17B Instruct (128E) — это высокопроизводительная мультимодальная языковая модель от Meta, построенная на архитектуре смеси экспертов (MoE). Модель включает 128 экспертов и задействует 17 миллиардов активных параметров при каждом проходе, в то время как общее количество параметров составляет 400 миллиардов. Она поддерживает ввод текста и изображений на нескольких языках, а также генерирует текст и программный код на 12 поддерживаемых языках. Maverick оптимизирована для задач компьютерного зрения и обработки естественного языка, прошла обучение с подкреплением для работы в режиме ассистента, логического анализа изображений и универсального мультимодального взаимодействия. Maverick использует технологию раннего слияния для нативной мультимодальности и обладает контекстным окном в 1 миллион токенов. Модель была обучена на тщательно отобранном наборе данных из открытых и лицензионных источников, а также данных платформ Meta, общим объемом около 22 триллионов токенов. Актуальность знаний ограничена августом 2024 года. Выпущенная 5 апреля 2025 года под лицензией Llama 4 Community, Maverick подходит для исследовательских и коммерческих приложений, требующих глубокого мультимодального понимания и высокой пропускной способности. На платформе alltokens модель доступна для интеграции в различные рабочие процессы.
Meta: Llama 4 Scout
meta-llama
Llama 4 Scout 17B Instruct (16E) — это языковая модель на базе архитектуры смеси экспертов (MoE), разработанная Meta. Модель активирует 17 миллиардов параметров из общего числа в 109 миллиардов. Она поддерживает нативный мультимодальный ввод (текст и изображения) и мультиязычный вывод (текст и программный код) на 12 языках. Scout спроектирована для работы в режиме ассистента и визуального анализа, используя 16 экспертов на каждом проходе. Модель обладает контекстным окном в 10 миллионов токенов и обучена на корпусе объемом около 40 триллионов токенов. Созданная для высокой эффективности и локального или коммерческого развертывания, Llama 4 Scout использует технологию раннего слияния для бесшовной интеграции различных модальностей. Модель прошла процедуру настройки инструкций для использования в мультиязычных чатах, генерации описаний к изображениям и задач по распознаванию визуального контента. Выпущенная под лицензией Llama 4 Community License, она обучалась на данных вплоть до августа 2024 года и стала доступна на alltokens 5 апреля 2025 года.
Llama Guard 3 8B
meta-llama
Llama Guard 3 — это предварительно обученная модель на базе Llama-3.1-8B, доработанная для классификации безопасности контента. Как и предыдущие версии, она может использоваться для анализа как входящих запросов к языковым моделям, так и их ответов. Модель работает по принципу LLM: она генерирует текст, указывающий, является ли запрос или ответ безопасным или небезопасным. В случае обнаружения нарушений модель также перечисляет категории контента, которые были нарушены. Llama Guard 3 настроена для защиты от рисков согласно стандартизированной таксономии MLCommons и оптимизирована для поддержки возможностей Llama 3.1. В частности, она обеспечивает модерацию контента на 8 языках и адаптирована для обеспечения безопасности при использовании инструментов поиска и интерпретатора кода. На alltokens модель доступна для интеграции в системы фильтрации трафика.
Meta: Llama 3.3 70B Instruct
meta-llama
Мультиязычная большая языковая модель Meta Llama 3.3 представляет собой предварительно обученную и настроенную на выполнение инструкций генеративную модель объемом 70 миллиардов параметров. Модель оптимизирована для ведения диалогов на нескольких языках и превосходит многие доступные открытые и закрытые чат-модели в популярных отраслевых тестах производительности. Поддерживаемые языки: английский, немецкий, французский, итальянский, португальский, хинди, испанский и тайский. Доступно на alltokens.
Meta: Llama 3.3 70B Instruct (Бесплатно)
meta-llama
Мультиязычная большая языковая модель Meta Llama 3.3 — это предварительно обученная и оптимизированная для инструкций генеративная модель объемом 70 миллиардов параметров (ввод и вывод текста). Модель Llama 3.3, настроенная для работы с текстовыми инструкциями, оптимизирована для сценариев многоязычного диалога и превосходит многие доступные открытые и закрытые чат-модели в популярных отраслевых тестах. Поддерживаемые языки: английский, немецкий, французский, итальянский, португальский, хинди, испанский и тайский. Доступ к модели предоставляется через API alltokens.