liquid/lfm-2.5-1.2b-instruct:freeLFM2.5-1.2B-Instruct — это компактная высокопроизводительная модель, оптимизированная для выполнения инструкций и предназначенная для быстрой работы ИИ непосредственно на устройствах. При размере всего в 1,2 миллиарда параметров она обеспечивает высокое качество диалога, эффективный вывод на периферийных устройствах и широкую поддержку различных сред исполнения.
Параметры, которые поддерживает эта модель в API-запросах
Система автоматически выбирает оптимального провайдера и переключается на резервный при сбоях.
Сравните разных провайдеров на AllTokens
Оценки модели из Artificial Analysis
curl https://api.alltokens.ru/api/v1/chat/completions \
-H "Authorization: Bearer $ALLTOKENS_API_KEY" \
-H "Content-Type: application/json" \
-d '{
"model": "liquid/lfm-2.5-1.2b-instruct:free",
"messages": [
{"role": "user", "content": "Привет! Кратко объясни, что умеешь."}
]
}'LiquidAI: LFM2.5-1.2B-Instruct (Бесплатно) от провайдера liquid доступна через OpenAI-совместимый API AllTokens.
Страница агрегирует практические параметры для интеграции: стоимость входа и выхода, рабочий контекст, набор поддерживаемых параметров и сигналы для выбора модели под конкретные продакшн-сценарии.
Контекст
32 768 токенов
Цена входа
— / 1M токенов
Цена выхода
— / 1M токенов
Входные модальности
Выходные модальности
Добавлена в каталог
06.02.2026
LiquidAI: LFM2-24B-A2B
liquid
LFM2-24B-A2B — самая крупная модель в семействе гибридных архитектур LFM2, разработанная для эффективного развертывания на локальных устройствах. Она построена по принципу смеси экспертов (Mixture-of-Experts) с общим объемом 24 миллиарда параметров, из которых для обработки каждого токена активируются только 2 миллиарда. Это обеспечивает высокое качество генерации при сохранении низких затрат на инференс. Модель помещается в 32 ГБ оперативной памяти, что позволяет запускать ее на потребительских ноутбуках и настольных компьютерах без потери производительности. На alltokens вы можете получить доступ к этой модели через API.
LiquidAI: LFM2.5-1.2B-Thinking (Бесплатно)
liquid
LFM2.5-1.2B-Thinking — это легкая модель, ориентированная на логические рассуждения и оптимизированная для работы агентов, извлечения данных и задач RAG, при этом она стабильно работает на периферийных устройствах. Модель поддерживает длинный контекст до 32 000 токенов и разработана для обеспечения высококачественных цепочек рассуждений при компактном размере в 1,2 миллиарда параметров. На alltokens модель доступна для интеграции в различные рабочие процессы.