google/gemini-2.5-flash-lite-preview-09-2025Gemini 2.5 Flash-Lite — это облегченная модель рассуждений в семействе Gemini 2.5, оптимизированная для сверхнизкой задержки и максимальной экономической эффективности. Она обеспечивает повышенную пропускную способность, более генерацию токенов и улучшенную производительность в стандартных тестах по сравнению с предыдущими моделями Flash. По умолчанию функция мышления (многопроходное рассуждение) отключена для обеспечения максимальной скорости, однако разработчики могут активировать ее через параметр Reasoning API, чтобы выборочно повышать уровень интеллекта модели за счет увеличения стоимости. На alltokens вы можете получить доступ к этой модели для интеграции в свои проекты.
Параметры, которые поддерживает эта модель в API-запросах
Система автоматически выбирает оптимального провайдера и переключается на резервный при сбоях.
Сравните разных провайдеров на AllTokens
Оценки модели из Artificial Analysis
curl https://api.alltokens.ru/api/v1/chat/completions \
-H "Authorization: Bearer $ALLTOKENS_API_KEY" \
-H "Content-Type: application/json" \
-d '{
"model": "google/gemini-2.5-flash-lite-preview-09-2025",
"messages": [
{"role": "user", "content": "Привет! Кратко объясни, что умеешь."}
]
}'Google: Gemini 2.5 Flash Lite Preview 09-2025 от провайдера google доступна через OpenAI-совместимый API AllTokens.
Страница агрегирует практические параметры для интеграции: стоимость входа и выхода, рабочий контекст, набор поддерживаемых параметров и сигналы для выбора модели под конкретные продакшн-сценарии.
Контекст
1 048 576 токенов
Цена входа
14 ₽ / 1M токенов
Цена выхода
54 ₽ / 1M токенов
Входные модальности
Google: Gemma 4 26B A4B
Gemma 4 26B A4B IT — это модель с инструкционной настройкой Mixture-of-Experts (MoE) от Google DeepMind. Несмотря на 25,2 млрд общих параметров, при инференсе активируется только 3,8 млрд на токен — обеспечивая качество, близкое к 31-миллиардной модели, при значительно меньших вычислительных затратах. Поддерживает мультимодальные входные данные, включая текст, изображения и видео (до 60 секунд с частотой 1 кадр в секунду). Оснащена 256K контекстным окном, встроенным вызовом функций, настраиваемым режимом мышления/рассуждения и поддержкой структурированного вывода. Выпущена под лицензией Apache 2.0.
Google: Gemma 4 31B
Gemma 4 31B Instruct — это мультимодальная модель Google DeepMind с 30,7 млрд параметров, поддерживающая текстовые и изображений входные данные с текстовым выводом. Оснащена 256K контекстным окном, настраиваемым режимом мышления/рассуждения, встроенным вызовом функций и многоязычной поддержкой более 140 языков. Отлично справляется с программированием, рассуждениями и пониманием документов. Распространяется под лицензией Apache 2.0.
Подробный обзор модели
Новости, изменения цены, ключевые обновления и практические рекомендации по интеграции.
Открыть обзор
Google Gemini модели
Подборка Google Gemini моделей: мультимодальность, контекст и сравнение стоимости.
Смотреть подборку
Модели для программирования
Выборка кодинг-моделей для разработки: инструменты, reasoning, качество генерации и скорость.
Смотреть подборку
Недорогие модели
Подборка доступных моделей ИИ с низкой стоимостью входных токенов и практичной производительностью.
Смотреть подборку
Выходные модальности
Добавлена в каталог
06.02.2026
Google: Lyria 3 Pro Preview
Lyria 3 — это семейство моделей генерации музыки от Google, доступное через API Gemini. С помощью Lyria 3 вы можете создавать высококачественное стереозвуковое аудио с частотой 48 кГц на основе текстовых подсказок или изображений. Эти модели обеспечивают структурную целостность, включая вокал, синхронизированные тексты и полные инструментальные аранжировки. Lyria 3 Pro способна генерировать полноформатные песни с припевами, куплетами и переходными частями.
Модели с длинным контекстом
Список моделей с большим context window для анализа длинных документов, репозиториев и агентных пайплайнов.
Смотреть подборку