Google vydal svou nejnovější řadu modelů AI s otevřenou váhou, Gemma 4, pod licencí Apache 2.0 – významný krok, který by mohl změnit způsob, jakým společnosti implementují AI s otevřeným zdrojovým kódem. Modely Gemma od Googlu prokazovaly po léta silný výkon, ale byly omezeny přísnou licencí, což tlačí mnoho organizací k alternativám, jako je Mistral nebo Qwen od Alibaby. Nová licence Apache 2.0 tyto bariéry odstraňuje a umožňuje širší komerční využití bez právních problémů.
Tento bod je obzvláště pozoruhodný, protože některé čínské laboratoře AI (jako Alibaba) snižují počet úplných verzí open source pro své nejnovější modely. Google jde opačným směrem a uvádí svou dosud nejvýkonnější verzi Gemma, která využívá výzkum z vlastního Gemini 3.
Gemma 4: Modely pro jakékoli zařízení
Gemma 4 se dodává ve čtyřech modelech, rozdělených na pracovní stanice a periferní úrovně:
- Vrstva pracovní stanice: Zahrnuje hustý model s 31 miliardami parametrů a model A4B MoE (Mixture-of-Experts) s 26 miliardami parametrů, oba podporují text, obrázky a kontextová okna s 256 000 tokeny.
- Periferní vrstva: Skládá se z modelů E2B a E4B určených pro telefony, vestavěná zařízení a notebooky, které podporují text, obrázky, zvuk a kontextová okna 128 000 tokenů.
Názvosloví je kritické: „E“ znamená „efektivní parametry“, což znamená, že se model chová jako menší model, i když je technicky větší díky technologii Google Per-Layer Embeddings (PLE). “A” v A4B znamená “aktivní parametry”, což znamená, že během odvození je aktivována pouze podmnožina celkových parametrů modelu, což poskytuje vysoký výkon při nižších výpočetních nákladech.
Architektura MŽP: Výkon s účinností
Model A4B MŽP s 26 miliardami parametrů využívá 128 malých „expertů“, aktivujících pouze osm na token, plus jednoho neustále zapnutého experta. To poskytuje výkon srovnatelný s hustými modely v rozsahu 27–31 miliard parametrů, ale s rychlostí odvození podobnou modelu se 4 miliardami parametrů. To znamená méně GPU, nižší latenci a levnější výstup na token pro produkční úlohy, jako jsou asistenti kódování nebo zpracování dokumentů.
Gemma 4 také používá hybridní mechanismus pozornosti, který kombinuje lokální posuvné okno pozornosti s plnou globální pozorností a poskytuje dlouhá kontextová okna (256 kB) bez nadměrné spotřeby paměti.
Vestavěná multimodalita: Funkce vidění, zvuku a volání
Na rozdíl od předchozích otevřených modelů, které přidaly multimodalitu jako zástupný symbol, Gemma 4 integruje vizi, zvuk a volání funkcí na architektonické úrovni:
- Vision: Podporuje obrázky s proměnným poměrem stran s přizpůsobitelnými rozpočty vizuálních tokenů pro úkoly, jako je OCR, analýza dokumentů a podrobná analýza.
- Audio: Vestavěné zpracování zvuku v zařízení (ASR a překlad), komprimované na 305 milionů parametrů pro výkon.
- Function Calls: Vytvořeno od základů, optimalizuje víceprůchodové toky agentů pomocí více nástrojů a snižuje režii návrhu s popiskem.
Porovnání a výkon
Gemma 4 vykazuje vysoké výsledky v testech:
- 31B Dense: 89,2 % na AIME 2026 (Mathematical Reasoning), 80,0 % na LiveCodeBench v6 (Coding) a Codeforces ELO 2 150.
- 26B A4B MoE: 88,3 % na AIME 2026, 77,1 % na LiveCodeBench v6 a 82,3 % na GPQA Diamond (Scientific Reasoning).
- Modely periferií: Modely E4B (42,5 % na AIME 2026) a E2B (37,5 % na AIME 2026) jsou lepší než předchozí verze Gemma, a to i přes jejich menší velikost.
Zatímco Qwen, GLM a Kimi soutěží v tomto rozsahu parametrů, Gemma 4 vyniká kombinací vysokého výkonu, skutečně liberální licence a vestavěné multimodality.
Co bude dál?
Google vydal jak předtrénované základní modely, tak modely vyladěné podle instrukcí, které podporují individuální dolaďování. Možnost nasadit bez serverů prostřednictvím Cloud Run s podporou GPU může výrazně snížit náklady na nasazení otevřených modelů v produkci. Další velikosti modelů budou pravděpodobně následovat, ale současná řada Gemma 4 nabízí kompletní open source řešení, které je konkurenceschopné proprietárním modelům. Pro firmy, které váhají s přijetím open source AI kvůli problémům s licencí, Google nyní tuto bariéru odstranil.






























