Gemma 4: Google setzt neue Maßstäbe für Open-Source-KI
Google Gemma 4 revolutioniert Open Source: Native Bild- & Audio-KI, riesiger Kontext und maximale Freiheit für Ihre Projekte. Jetzt die Highlights lesen!

Inhaltsverzeichnis
Google hat mit Gemma 4 die neueste Generation seiner offenen Modellfamilie veröffentlicht. Knapp ein Jahr nach den Vorgängern zeigt der Tech-Riese, dass "Open Weights" und absolute Spitzenleistung kein Widerspruch mehr sind. Mit nativer Multimodalität, einer massiven Kontext-Erweiterung und einer neuen Lizenzierung mischt Gemma 4 den Markt der lokalen KI-Modelle ordentlich auf.
Seit dem Debüt der Gemma-Serie im Jahr 2024 hat sich viel getan. Mit dem Release von Gemma 4 am 2. April 2026 macht Google deutlich: Die Lücke zwischen den gigantischen Cloud-Modellen (wie Gemini) und den lokal ausführbaren Modellen wird immer kleiner.
Die Highlights: Was ist neu an Gemma 4?
Gemma 4 ist nicht einfach nur ein inkrementelles Update. Es handelt sich um eine grundlegende Weiterentwicklung der Architektur, die speziell für Agentic Workflows – also KI-Assistenten, die eigenständig Aufgaben planen und ausführen – optimiert wurde.
1. Echte Multimodalität von Anfang an
Bisher waren die meisten kleinen Open-Source-Modelle primär auf Text spezialisiert. Gemma 4 bricht diese Barriere. Alle Modelle der Familie können nativ Bilder und Videos verarbeiten. Die kleineren Varianten (E2B und E4B) unterstützen zudem nativen Audio-Input, was sie ideal für Sprachassistenten direkt auf dem Smartphone macht.
2. Riesiges Gedächtnis: Bis zu 256K Kontext
Ein häufiger Kritikpunkt an lokalen Modellen war der begrenzte Kontext. Gemma 4 hebt dies auf ein neues Level:
- Edge-Modelle (E2B, E4B): 128.000 Token.
- Größere Modelle (26B, 31B): 256.000 Token. Damit lassen sich ganze Code-Repositorys oder mehrhundertseitige Dokumente in einem Rutsch analysieren.
3. Apache 2.0 Lizenz: Maximale Freiheit
Ein Paukenschlag für Entwickler: Während frühere Versionen unter einer speziellen "Gemma-Lizenz" standen, wurde Gemma 4 unter der Apache 2.0-Lizenz veröffentlicht. Das bedeutet absolute Freiheit bei der Modifikation, kommerziellen Nutzung und Weiterverbreitung – ein wichtiger Schritt für die digitale Souveränität von Unternehmen.
Die Modell-Varianten im Überblick
Google bietet für jedes Szenario die passende Größe an:
| Modell | Parameter | Architektur | Fokus |
|---|---|---|---|
Gemma 4 E2B | ~2 Mrd. | Dense | Maximale Geschwindigkeit auf Smartphones. |
Gemma 4 E4B | ~4 Mrd. | Dense | Die "Goldene Mitte" für moderne Android-Hardware. |
Gemma 4 26B (A4B) | 26 Mrd. | MoE (Mixture of Experts) | Nutzt nur 4 Mrd. aktive Parameter; hohe Effizienz auf Workstations. |
Gemma 4 31B | 31 Mrd. | Dense | Das Kraftpaket für komplexe Logik und Reasoning. |
Warum Gemma 4 ein "Game Changer" für Entwickler ist
Besonders spannend ist die Architektur-Optimierung. Google nutzt in Gemma 4 ein hybrides System aus lokalem Sliding-Window-Attention und globaler Attention. Das sorgt dafür, dass das Modell auch bei sehr langen Texten nicht den Faden verliert, ohne den Arbeitsspeicher zu sprengen.
Agentic AI & Coding
Gemma 4 wurde gezielt darauf trainiert, Funktionen aufzurufen (Function Calling) und komplexen Code zu generieren. In Kombination mit dem neuen Agent Development Kit (ADK) von Google können Entwickler nun KI-Agenten bauen, die lokal auf einem Laptop laufen und dennoch Aufgaben wie Terminplanung, Datenextraktion aus PDFs oder automatisierte Software-Tests übernehmen.
"Gemma 4 liefert mehr Intelligenz pro Parameter als jedes andere uns bekannte Open-Weight-Modell." – So fasst es das Google DeepMind Team im aktuellen Whitepaper zusammen.
Fazit: Die Zukunft ist lokal
Mit Gemma 4 beweist Google, dass das Unternehmen den Open-Source-Sektor nicht den Mitbewerbern überlassen möchte. Die Kombination aus hoher Geschwindigkeit auf Endgeräten, nativer Bild- und Audioerkennung und der liberalen Apache-Lizenz macht Gemma 4 zur derzeit wohl spannendsten Basis für Ihre nächsten KI-Anwendungen.
Möchten Sie Gemma 4 ausprobieren? Die Modelle stehen ab sofort auf Hugging Face, Kaggle und via Ollama für Sie zum Download bereit. Wenn Sie ein Android-Gerät besitzen, können Sie die ersten Features bereits in der neuen AICore Developer Preview testen.

