Google lanserar Gemma 4 under Apache 2.0: Fyra nya modeller med inbyggd multimodalitet

Googles senaste steg inom artificiell intelligens markerar en betydande förändring i hur tekniken distribueras och licensieras. Med lanseringen av Gemma 4 introduceras en familj bestående av fyra öppna modeller, vilka bygger direkt på forskningen bakom Gemini 3. Den mest anmärkningsvärda förändringen är övergången till licensen Apache 2.0, ett beslut som nu tillåter obegränsad kommersiell användning och vidaredistribution av tekniken.

Arbetsstationer och kantberäkning

Gemma 4-familjen är uppdelad i två huvudkategorier för att möta olika tekniska krav. För mer krävande miljöer erbjuds två så kallade “workstation”-modeller. Den första är en tät (dense) modell med 31 miljarder parametrar. Den andra är en Mixture-of-Experts (MoE)-modell som totalt rymmer 26 miljarder parametrar, varav 3,8 miljarder parametrar aktiveras under användning.

För enheter med begränsad beräkningskraft introduceras två “edge”-modeller. Modellen E2B har totalt 5,1 miljarder parametrar, där 2,3 miljarder är aktiva. Den något större E4B-modellen innehåller 8 miljarder parametrar totalt, varav 4,5 miljarder är aktiva.

Kontextfönster och inbyggd multimodalitet

De tekniska specifikationerna för Gemma 4 avslöjar en utökad kapacitet för datahantering. De större workstation-modellerna är utrustade med kontextfönster som kan hantera upp till 256 000 tokens. För edge-varianterna ligger motsvarande kapacitet på 128 000 tokens.

Samtliga modeller i familjen har inbyggd (native) multimodalitet. Detta innebär ett direkt stöd för text, videobilder (video frames) samt bilder med variabel upplösning som sträcker sig från 70 till 1120 block. Därtill finns ett inbyggt stöd för ljud, vilket är specifikt utformat för att hantera taligenkänning och översättning direkt på enheten (on-device).

Prestanda och utmaningar vid inferens

När det gäller mätbar prestanda har den täta modellen med 31 miljarder parametrar uppnått en tredjeplats på rankningen Arena AI. Samma modell presterade även ett resultat på 89,2 procent i matematiktestet AIME 2026.

Trots dessa resultat har tidiga tester utförda av utvecklare identifierat tekniska utmaningar. Rapporter indikerar att inferenshastigheten är betydligt långsammare jämfört med konkurrerande alternativ. Specifikt har det noterats att Gemma 4 genererar 11 tokens per sekund på hårdvara där Alibabas modell Qwen 3.5 når hastigheter på över 60 tokens per sekund.

Lanseringen av Gemma 4 visar på en tydlig strategisk riktning där avancerad forskning från Gemini 3 kombineras med en öppen Apache 2.0-licens. Genom att erbjuda allt från kompakta edge-modeller till kraftfulla workstation-modeller med omfattande kontextfönster och multimodalitet, skapas nya förutsättningar för utvecklare. Samtidigt understryker rapporterna kring inferenshastigheten att balansen mellan hög teoretisk prestanda och praktisk effektivitet förblir en central faktor i den fortsatta utvecklingen av öppna AI-modeller.

Källor

Känner du någon som skulle uppskatta detta? Tipsa dem genom att dela artikeln!

Relaterade artiklar

Nytt och Aktuellt