Gemma 4: Четыре модели от Google — и только одна вам нужна

Google запустила не одну, а сразу четыре модели Gemma 4 — разбираемся, какая из них спасёт ваш проект, а какая просто поест бюджет.
Google решила не мелочиться и вместо одной модели выпустила сразу четыре вариации Gemma 4. Звучит как щедрость, но на деле — как если бы вам принесли 4 вида соусов к бургеру, а вы хотели просто картошку. Выбор, конечно, приятный, но голова идёт кругом.
Давайте разберёмся, кто есть кто. Gemma 4 включает: базовую модель для лёгких задач, модель с поддержкой инструментов (для вызова API и работы с кодом), экспертную Mixture-of-Experts (MoE) для сложных сценариев и, наконец, гигантскую версию, которая требует серверной фермы на коленке. Разница не только в размере, но и в архитектуре — MoE, например, активирует только часть нейронов, экономя ресурсы.
Для разработчика выбор сводится к простому вопросу: сколько у вас денег на облачные вычисления и насколько сложная задача? Если вы пишете бота для Telegram — базовая модель за глаза. Если строите AI-агента, который сам деплоит код — берите MoE. А гигантскую версию оставьте для тех, у кого в дата-центре стоит кондиционер мощностью с реактивный двигатель.
Кстати, Google обещает, что все четыре модели открыты и доступны через Vertex AI и локально. Но не обольщайтесь — локальный запуск гигантской версии на вашем MacBook закончится либо фейерверком, либо тихим «out of memory».
Комментарий студии METABYTE: Мы, как студия, которая обожает экспериментировать с моделями, советуем не спешить с выбором. Лучше потратить час на тесты, чем потом переплачивать за «тяжёлую артиллерию», которая будет решать задачку уровня «привет, мир».