NVIDIA lanserar Nemotron 3 – öppna AI-modeller för agentbaserad utveckling
NVIDIA Corp. har idag introducerat Nemotron 3, en banbrytande familj av öppna AI-modeller, i ett strategiskt drag för att positionera sig på den växande marknaden för specialiserade AI-agentsystem. Denna nya serie av modeller – Nano, Super och Ultra – är konstruerad med en hybrid latent mixture-of-experts-arkitektur (MoE), designad för att tackla de komplexa utmaningar som uppstår vid utveckling av AI-system med flera agenter, såsom kommunikationsöverhead och kontextdrift. Den omedelbart tillgängliga Nemotron 3 Nano-modellen utlovar betydande framsteg inom prestanda och effektivitet, vilket banar väg för en ny generation av transparenta och skalbara AI-applikationer.
En ny era för agentbaserad AI
Utvecklingen mot samarbetande AI-system med flera agenter, där olika modeller arbetar tillsammans för att lösa komplexa uppgifter, har ställt nya krav på underliggande AI-modeller. De befintliga utmaningarna har ofta inkluderat kostsam inferens, svårigheter med att bibehålla kontext över tid, samt ineffektiv kommunikation mellan agenter. NVIDIAs Nemotron 3-familj är specifikt framtagen för att möta dessa problem genom sin innovativa hybrid MoE-arkitektur. Denna design syftar till att minska inferenskostnaderna, begränsa kontextdrift och förbättra koordinationen bland AI-agenter. Jensen Huang, grundare och VD för NVIDIA, betonade vikten av detta steg: “Öppen innovation är grunden för AI-framsteg. Med Nemotron förvandlar vi avancerad AI till en öppen plattform som ger utvecklare den transparens och effektivitet de behöver för att bygga agentbaserade system i stor skala.”
Nemotron 3 Nano – prestanda och tillgänglighet
Den första modellen i serien, Nemotron 3 Nano, finns tillgänglig redan idag och representerar ett stort steg framåt. Modellen har 30 miljarder parametrar, varav 3 miljarder är aktiva, och levererar upp till fyra gånger högre genomströmning av tokens jämfört med sin föregångare, Nemotron 2 Nano. Dessutom minskar Nemotron 3 Nano genereringen av resonemangs-tokens med upp till 60 procent, vilket avsevärt sänker inferenskostnaderna. En anmärkningsvärd egenskap är modellens kontextfönster på en miljon tokens, vilket gör att den kan bibehålla hög noggrannhet även under utökade, flerstegsoperationer. Enligt Artificial Analysis, en oberoende organisation för AI-benchmarking, har Nemotron 3 Nano rankats som den mest öppna och effektiva modellen i sin storlekskategori, med ledande noggrannhetsmetriker. Den är särskilt optimerad för kostnadseffektiva användningsområden som felsökning av programvara, innehållssammanfattning, AI-assistenter och informationshämtning. De större modellerna, Nemotron 3 Super (cirka 100 miljarder parametrar) och Nemotron 3 Ultra (cirka 500 miljarder parametrar), som är designade för mer komplexa resonemang och applikationer, planeras att släppas under första halvåret 2026.
Stöd för utvecklare och industrin
NVIDIA har inte bara lanserat nya modeller utan också förstärkt sitt ekosystem genom att släppa tre biljoner tokens av träningsdata och nya förstärkningsinlärningsbibliotek via sin NeMo-plattform. Detta inkluderar NeMo Gym och NeMo RL, öppen källkodsverktyg tillgängliga på GitHub och Hugging Face. Dessa resurser är avsedda att ge utvecklare de verktyg och den transparens de behöver för att bygga specialiserade, agentbaserade AI-lösningar. Flera stora teknikföretag har redan börjat integrera Nemotron-modellerna i sin verksamhet, däribland Accenture, Cadence Design Systems Inc., CrowdStrike Holdings Inc., Deloitte, Oracle Cloud Infrastructure, Palantir Technologies Inc., Perplexity AI, ServiceNow Inc., Siemens och Zoom Communications Inc. Dessa tidiga implementeringar sträcker sig över sektorer som tillverkning, cybersäkerhet, mjukvaruutveckling och kommunikation. Dessutom stöder Nemotron 3 NVIDIAs bredare “suveräna AI”-initiativ, vilket gör det möjligt för organisationer att bygga AI-system som överensstämmer med deras egna data, regleringar och värderingar. Enligt Lian Jye Su, analytiker på Omdia, är Nemotron 3 en viktig “iteration” av tidigare modeller, som gör dem “smartare och smartare” för varje version, vilket bidrar till deras popularitet bland utvecklare.

