Alltokens

Google: Gemma 4 26B A4B (Бесплатно)

GoogleGoogleОбновлено: 03 апреля 2026 г.

Gemma 4 26B A4B — это эффективная MoE-модель от Google DeepMind, использующая архитектуру Mixture-of-Experts для достижения высокой производительности при низких затратах ресурсов. Благодаря активации всего 3.8 млрд параметров на токен, она обеспечивает качество ответов уровня 31B-моделей и поддерживает мультимодальный ввод, включая текст, изображения и видео.

Использовать через API

Метрики

Вход

₽/M

Выход

₽/M

Контекст

262k tokens

Параметры

9

Релиз

03 апреля 2026 г.

Поддерживаемые параметры

include_reasoningmax_tokensreasoningresponse_formatseedtemperaturetool_choicetoolstop_p

Технический обзор

Gemma 4 26B A4B IT — это модель с инструкционной настройкой Mixture-of-Experts (MoE) от Google DeepMind. Несмотря на 25,2 млрд общих параметров, при инференции активируется только 3,8 млрд на токен — обеспечивая качество, близкое к 31-миллиардной модели.

Кодинг
Инструменты
Длинный контекст
Мультимодальность
Веб-автоматизация

Смежные подборки

Сравнение с похожими моделями

Для чего

Gemma 4 26B A4B — это эффективная MoE-модель от Google DeepMind, использующая архитектуру Mixture-of-Experts для достижения высокой производительности при низких затратах ресурсов. Благодаря активации всего 3.8 млрд параметров на токен, она обеспечивает качество ответов уровня 31B-моделей и поддерживает мультимодальный ввод, включая текст, изображения и видео.

Контекст

262k

Цена ₽

— / —

Для чего

Является полноразмерной версией в той же линейке, предлагая эталонное качество для сравнения эффективности MoE-архитектуры.

Контекст

262k

Цена ₽

— / —

Для чего

Конкурирует в категории бесплатных мультимодальных моделей с продвинутыми возможностями обработки контекста.

Контекст

1M

Цена ₽

— / —

Когда выбирать

  • Необходим анализ мультимодального контента, включая видео и изображения, в рамках одного запроса.
  • Требуется работа с длинным контекстом до 262 тысяч токенов для обработки объемных документов.
  • Нужна высокая скорость генерации текста при сохранении качества ответов, характерного для более тяжелых моделей.

Когда не выбирать

  • Требуется максимально возможная точность, которую могут обеспечить только полноразмерные модели без MoE-оптимизации.
  • Задачи ограничены исключительно простым текстом, где избыточны мультимодальные возможности.
  • Необходима работа в офлайн-режиме на устройствах с крайне малым объемом памяти.

FAQ

МИРVisaMastercardСБП
AllTokens

© 2026 Alltokens. Все права защищены.