StartseiteArtikel

Viertel nach Mitternacht: Vier Diamanten. Google hat die Gemma 4 plötzlich veröffentlicht. Das 31-Milliarden-Parameter-Modell schlägt Konkurrenten mit 20-mal so vielen Parametern.

鲸选AI2026-04-03 08:20
Kann die inländische Open-Source-Software weiterhin an der Spitze der Rangliste stehen?

Am frühen Morgen des 2. April hat Demis Hassabis, der CEO von Google DeepMind, auf X vier Diamant-Emojis gepostet, was die Spannung auf ein Maximum gebracht hat.

Einige Stunden später wurde das Geheimnis gelüftet. Google hat offiziell die Serie Gemma 4 vorgestellt, die die Modelle E2B, E4B, 26B - A4B und 31B umfasst. Dies ist ihre bisher leistungsfähigste Familie von Open - Source - Modellen.

Noch überraschender ist, dass Google diesmal endgültig auf die höflichen Abstände verzichtet hat und direkt das Apache 2.0 - Open - Source - Lizenzmodell verwendet. Man muss bedenken, dass sich die Entwickler das ganze Jahr über wegen der benutzerdefinierten Lizenz von Gemma 3 beschwert haben.

Nachdem ich die Ankündigungsinformationen gelesen habe, denke ich, dass Google diesmal bei seinen Open - Source - Modellen ernst ist. Die 31B - Version hat sich direkt auf den dritten Platz in der globalen Arena AI - Rangliste gesetzt. Mit weniger als einem Zehntel der Parameteranzahl kann sie mit den Giganten mit 40 Milliarden Parametern mithalten. Diese Verbesserung der Parameter - Effizienz ist für diejenigen, die Modelle lokal ausführen möchten, von größter Bedeutung.

Vergleich der Benchmark - Ergebnisse von Gemma 4 und chinesischen Large Language Modellen

Der größte technische Höhepunkt von Gemma 4 ist, dass es direkt die Forschungsergebnisse und die technische Architektur von Gemini 3 übernommen hat. Google sagt in seinem offiziellen Blog ganz klar: "Gemma 4 basiert auf derselben erstklassigen Forschung und Technologie wie Gemini 3." Was bedeutet das? Das bedeutet, dass Google die Kernfähigkeiten seines proprietären Flaggschiffmodells auf das Open - Source - Modell übertragen hat.

Diese "Technologietransfer" ist bei Großunternehmen eigentlich nicht üblich. Üblicherweise verfolgen proprietäre und Open - Source - Modelle völlig unterschiedliche technische Ansätze. Aber Google hat diesmal entschieden, dass Gemma 4 die gleiche Basis - Technologie wie Gemini 3 nutzt, was auch erklärt, warum die Leistung von Gemma 4 so deutlich verbessert ist.

Kleines Format, große Leistung: 31B besiegt den 397B - Giganten

Tatsächlich haben einige Leute in der Community bereits vor der offiziellen Veröffentlichung den Wind gespürt. Auf der LMSYS Chatbot Arena ist plötzlich ein anonymes Modell mit dem Code - Namen "significant - otter" aufgetaucht. Als ein Benutzer neugierig fragte, wer es sei, antwortete es direkt: "I am Gemma 4, a large language model developed by Google DeepMind."

Benutzer der Reddit - Community r/LocalLLaMA berichten, dass dieses Modell erstaunlich schnell antwortet und nicht nur auf Inferences optimiert ist, sondern alle Tests der Grundfähigkeiten bestanden hat.

Die vier Diamant - Emojis von Hassabis deuteten auf die vier Versionen von Gemma 4 hin. Der Leiter von DeepMind hat auf der Pressekonferenz direkt gesagt: "Dies ist das beste Open - Source - Modell weltweit in seiner Klasse."

Am stärksten überrascht hat die tatsächliche Leistung von Gemma 4 31B. Auf der branchenüblichen Arena AI - Textrangliste hat die 31B Dense - Version sich direkt auf den dritten Platz unter den globalen Open - Source - Modellen gesetzt, nur hinter GLM - 5 und Kimi 2.5, und die 26B MoE - Version hat den sechsten Platz belegt. Was bedeutet das? Sie haben eine ganze Reihe von Gigantenmodellen mit 20 - facher Parameteranzahl besiegt.

Man muss bedenken, dass Modelle wie Qwen 3.5 397B fast 40 Milliarden Parameter haben und in der gleichen Leistungsklasse wie Gemini 3 Pro, Claude Opus 4.5 und GPT - 5.2 liegen. Aber Gemma 4 31B kann mit weniger als einem Zehntel der Parameteranzahl auf der Rangliste mit diesen Giganten mithalten. Google nennt dies "Intelligenz pro Parameter" - mit weniger Parametern höhere Leistung zu erzielen.

Nach den praktischen Testdaten hat Gemma 4 31B in mehreren Schlüsseltests erstaunliche Ergebnisse erzielt. Im MMLU Pro - Test hat es 85,2 % erreicht, bei den Mathematikaufgaben des AIME 2026 eine Genauigkeit von 89,2 %, im LiveCodeBench v6 - Code - Test 80,0 % und im ELO - Ranking des Codeforces - Programmierwettbewerbs belegt es stolze 2150 Punkte.

Man muss bedenken, dass die Vorgängerversion Gemma 3 27B beim AIME 2026 nur 20,8 % erreicht hat, und diesmal ist der Wert mehr als vervierfacht.

Noch spektakulärer sind die visuellen und multimodalen Fähigkeiten. Im MMMU Pro - Multimodal - Verständnistest hat die 31B - Version 76,9 % erreicht, bei den mathematischen visuellen Aufgaben von MATH - Vision 85,6 % und bei der medizinischen Bildauswertung MedXpertQA MM 61,3 %. Selbst die Audiobehandlungskapazität wurde nicht vernachlässigt. Die beiden mobilen Versionen E4B und E2B haben im CoVoST - Sprachenübersetzungstest die Werte 35,54 bzw. 33,47 erreicht.

Diese Verbesserung der Parameter - Effizienz ist für Entwickler, die Modelle lokal ausführen möchten, von großer Bedeutung. Man muss nicht tausende von Euro für eine H100 - Grafikkarte ausgeben. Eine Consumer - Grafikkarte reicht aus, um nahezu Spitzenleistung zu erzielen.

Von Smartphone bis zu Workstation: Vier Versionen mit individuellen Stärken

Google hat diesmal vier Versionen von Gemma 4 vorgestellt, die von Smartphones bis zu Servern abdecken.

Die kleinsten Versionen, Effective 2B (E2B) und Effective 4B (E4B), sind speziell für mobile Geräte entwickelt und können vollständig offline auf Ihrem Android - Smartphone oder sogar auf einem Raspberry Pi ausgeführt werden. Google hat mit dem Pixel - Team, Qualcomm und MediaTek zusammengearbeitet, um die Latenz nahezu auf Null zu reduzieren.

Die 26B MoE (Mixture of Experts) - Version ist noch interessanter. Obwohl sie 26 Milliarden Parameter hat, werden bei der Inferenz nur 3,8 Milliarden Parameter aktiviert, was bedeutet, dass sie unglaublich schnell ist. Die Anzahl der pro Sekunde generierten Tokens ist deutlich höher als bei Modellen gleicher Größe. Im MMLU Pro - Test hat es 82,6 % erreicht, beim AIME 2026 88,3 %, was der 31B - Version sehr nahe kommt, aber die Inferenzgeschwindigkeit ist viel höher.

Die 31B Dense - Version strebt die maximale Qualität an. Google sagt, dass diese Version für Entwickler gedacht ist, die fein abgestimmte Anpassungen vornehmen möchten. Im GPQA Diamond - Wissenschaftlichen Schlussfolgertest hat es 84,3 % erreicht, im Tau2 - Kompletttest durchschnittlich 76,9 % und bei den Extra - Hard - Aufgaben von BigBench 74,4 %. Diese Werte gehören zu den Spitzenleistungen unter den Open - Source - Modellen.

Alle Versionen unterstützen nativ die Eingabe von Videos und Bildern und können OCR und Diagrammverständnis durchführen. E2B und E4B unterstützen auch die native Audioeingabe und können Spracherkennung und - verständnis durchführen. Noch beeindruckender ist, dass Gemma 4 für über 140 Sprachen trainiert wurde. Die Modelle haben einen Kontextfenster - Rand von 128.000 Tokens (Kleinmodelle) bzw. 256.000 Tokens (Large Language Model).

Apache 2.0: Google hat endlich die Beschwerden der Entwickler gehört

Wenn die Leistungserhöhung zu erwarten war, war die Änderung der Lizenz ein echter Überraschungsbonus. Früher hat Gemma 3 die von Google selbst erstellte Lizenz verwendet, die eine Reihe von Beschränkungen enthielt. Google konnte die Nutzungsbedingungen auch einseitig jederzeit ändern, und Entwickler mussten die Vorschriften von Google in allen auf Gemma basierenden Projekten befolgen. Einige Klauseln ließen sich sogar so interpretieren, dass wenn man mit Gemma synthetische Daten generierte, diese Lizenz auch auf andere KI - Modelle, die mit diesen Daten trainiert wurden, anwendbar war. Dies hat viele Entwickler davor gehindert, Google - Open - Source - Modelle zu nutzen.

Diesmal hat Gemma 4 direkt auf die Apache 2.0 - Lizenz umgestellt, die eine der am wenigsten restriktiven und am besten etablierten Open - Source - Lizenzen der Branche ist. Es gibt keine übermäßigen Nutzungsbeschränkungen, keine kommerziellen Beschränkungen, und Google kann die Lizenz nicht einfach eines Tages ändern. Entwickler kennen diese Lizenz gut und können sie vertrauensvoll nutzen. Google sagt in seinem offiziellen Blog: "Ihr habt uns Feedback gegeben, und wir haben es gehört. Die Gestaltung der Zukunft der KI erfordert Zusammenarbeit. Wir glauben, dass wir die Entwickler - Ökosysteme stärken und keine restriktiven Hindernisse setzen sollten."

400 Millionen Downloads, 100.000 Varianten: Das "Gemmaverse" ist entstanden

Seit der Veröffentlichung der ersten Generation von Gemma im Februar 2024 haben Entwickler die Modelle über 400 Millionen Mal heruntergeladen, und die Community hat über 100.000 Varianten erstellt. Google nennt dies das "Gemmaverse" - ein Ökosystem, das sich um Gemma entwickelt hat.

Einige dieser Varianten sind ziemlich interessant. Beispielsweise ist MedGemma ein Werkzeug zur Generierung medizinischer Bilder und Berichte, das auf Gemma 3 basiert. DolphinGemma wird zur Analyse von Delphinengeräuschen verwendet, und SignGemma dient der Gebärdensprachenübersetzung. Diese Anwendungen gehen weit über die einfache Chat - Funktion hinaus und beweisen das Potenzial der Open - Source - Modellarchitektur.

Ein Entwickler auf Reddit hat Gemma 27B mit anderen Modellen gleicher Größe verglichen und gesagt: "Die finetunierte Version von Mistral 24B und Gemma 27B können in etwa 10 - 20 % der Fälle Qwen 27B schlagen, aber in 80 - 90 % der Fälle ist Qwen stärker. Aber Gemma hat eine wirklich hervorragende Leistung bei der Verarbeitung langer Kontexte." In den Tests für die Verarbeitung langer Kontexte (MRCR v2) hat die 31B - Version von Gemma 4 66,4 % erreicht, was gegenüber der Vorgängerversion mit 13,5 % eine Fünffachsteigerung darstellt.

Das Streben nach lokaler KI: Top - Leistung ohne Internetverbindung

Die größte Bedeutung von Gemma 4 liegt darin, dass es das Konzept der "lokalen KI" auf ein neues Niveau hebt. Man kann diese Modelle auf eigenem Hardware ausführen, ohne eine Cloud - Verbindung herstellen zu müssen, keine Sorgen um Datenschutz verlieren zu müssen und keine Gebühren für jede API - Anfrage zahlen zu müssen.

Google sagt in seinem Entwickler - Blog ganz klar: "Gemma 4 definiert neu, was Sie auf eigenem Hardware erreichen können. Jetzt können Sie über Chatbots hinausgehen und intelligente Agenten und autonome KI - Anwendungen entwickeln, die direkt auf Geräten laufen." Android - Entwickler können über die neue AICore Developer Preview auf die integrierten Gemma 4 - Modelle zugreifen oder mit Google AI Edge intelligente Agenten - Anwendungen auf mobilen Geräten, Desktop - Rechnern und Edge - Geräten entwickeln.

Das Unternehmen Arm erwähnt in seiner Pressemitteilung, dass Gemma 4 auf Android - Geräten mit Arm - Architektur tiefgreifend optimiert wurde. Entwickler, die für Arm - Geräte auf Basis von SME2 entwickeln, erhalten automatisch eine out - of - the - box - Leistungsoptimierung. Benutzer können schnellere Reaktionszeiten, flüssigere kontinuierliche Interaktionen und zuverlässigere Geräte - KI erleben, während die Akkulaufzeit und die Wärmeableitung stabil bleiben.

Im Kampf um Open - Source - Modelle will Google China nicht unterlegen sein

Die Veröffentlichung von Gemma 4 spiegelt auch einen größeren Hintergrund wider: Die USA liegen in Bezug auf Open - Source - Large Language Models hinter China zurück. Chinesische Open - Source - Modelle wie DeepSeek und Qwen haben weltweit viel Beachtung und Nutzung gefunden. Nvidia fördert auch die Nemotron - Serie, um ein Open - Source - KI - Ökosystem zu entwickeln. Google will offensichtlich nicht auf diesem Schlachtfeld außen vor bleiben.

Für Unternehmen liegt der Wert von Open - Source - Modellen darin, dass sie an spezifische Geschäftsszenarien angepasst werden können. Google sagt, dass es bereits über 100.000 Varianten von Gemma gibt, was selbst schon auf ein hohes Bedürfnis hinweist. Obwohl die Nutzungsdaten von OpenRouter zeigen, dass Google - Open - Source - Modelle bei der praktischen Implementierung traditionell hinter Meta's LLaMA und DeepSeek zurücklagen, könnte Gemma 4 mit seiner konkurrenzfähigen Benchmark - Leistung, der Apache 2.0 - Lizenz und der starken Mobil - ersten - Entwicklung überzeugender sein als alle vorherigen Generationen von Gemma.

Ab sofort nutzbar

Gemma 4 ist bereits in Google AI Studio (31B und 26B MoE) und Google AI Edge Gallery (E4B und E2B) verfügbar. Man kann auch die Modellgewichte von Hugging Face, Kaggle und Ollama herunterladen. Schon an Tag eins wird die Unterstützung für Plattformen wie vLLM, llama.cpp, MLX, NVIDIA NIM usw. angeboten.

Google hat auch ein neues Python - Paket und ein CLI - Tool namens litert - lm veröffentlicht, das es Entwicklern ermöglicht, Gemma direkt in der Konsole auszuprobieren, ohne Code schreiben zu müssen.