Google bringt in kurzen Abständen Verbesserungen in das KI-Modell Gemini, veröffentlicht immer wieder neue Versionen und legt auch bei den zahlreichen Ablegern nach – das gilt auch für das offene Modell Gemma. Jetzt hat man bereits das KI-Modell Gemma 4 veröffentlicht, das große Fortschritte im Bereich des logischen Denkens und agentenbasierten Workflows macht.
Mit Gemma betreibt Google schon seit langer Zeit eine offene Variante der Gemini-KI, die allen Entwicklern frei zur Verfügung steht. Es basiert auf denselben Forschungen und technologischen Grundlagen wie die weitaus größeren Gemini-Modelle. Um diese Freiheit weiter zu unterstreichen, bringt Google Gemma 4 nun unter die nutzerfreundliche Open-Source-Lizenz Apache 2.0. Das war abseits vom Funktionellen einer der größten Nutzerwünsche.
Mit der vierten Generation werden die Fähigkeiten der Multimodalität und des Kontextfensters noch weiter vergrößert, was eine Reihe von Verbesserungen ermöglicht hat:
- Sehen, Hören, Programmieren: Alle Modelle können nativ Bilder und Videos (z. B. für Diagrammverständnis oder Texterkennung) verarbeiten. Die kleinen E2B- und E4B-Modelle können zusätzlich Audiosignale zur Spracherkennung direkt verarbeiten. Zudem eignen sich die Modelle hervorragend als lokale Code-Assistenten.
- Riesiges Kontextfenster: Die Edge-Modelle fassen bis zu 128.000 Token, die großen Modelle sogar bis zu 256.000 Token. Dadurch können Entwickler ganze Code-Repositories oder sehr lange Dokumente in einem einzigen Prompt übergeben.
- Agenten-Workflows: Sie bieten native Unterstützung für Funktionsaufrufe (Function Calling) und strukturierte JSON-Ausgaben, um zuverlässig mit externen Tools und APIs zu interagieren.
Die bereits erwähnte Apache 2.0 Lizenz ist ein weiteres Highlight dieses Release. Denn diese garantiert Unternehmen und Entwicklern völlige digitale Souveränität, Datensicherheit und auch Flexibilität, ohne dass es einschränkende Barrieren bei der Verwendung gäbe.
Die Modelle von Gemma 4 sind ab sofort in über 140 Sprachen trainiert und können über Plattformen wie Google AI Studio, Hugging Face, Kaggle, Ollama oder Vertex AI genutzt werden. Die Hardwareunterstützung reicht von Android-Smartphones und Raspberry Pis bis hin zu großen NVIDIA-H100-GPUs und Google Cloud TPUs.
Schaut euch im Blogbeitrag von Google bei Interesse einmal die Performances des neuen Modells an, das nicht nur laut der Ankündigung, sondern auch nach ersten Nutzerrückmeldungen ein wirkliches starkes Modell zu sein scheint. Konzipiert ist es für maximale Leistung bei minimaler Größe, sodass es in vielen Produkten zum Einsatz kommen kann.
Letzte Aktualisierung am 7.04.2026 / Bilder von der Amazon Product Advertising API / Affiliate Links, vielen Dank für eure Unterstützung! Als Amazon-Partner verdiene ich an qualifizierten Verkäufen.