-6.9 C
Stockholm
Wednesday, February 18, 2026

Alibabas nya drag: RynnBrain ger robotar en “hjärna” för den fysiska världen

Drömmen om robotar som inte bara följer programmerade rörelser, utan faktiskt förstår sin omgivning, har tagit ett stort kliv framåt. Alibabas forskningsavdelning, DAMO Academy, har nu avtäckt RynnBrain – en grundmodell för så kallad “embodied AI” som syftar till att ge maskiner förmågan att resonera och agera i den fysiska verkligheten.

Det räcker inte längre med att en artificiell intelligens kan skriva poesi eller generera bilder på en skärm. Nästa stora utmaning inom techvärlden är att få denna intelligens att kliva ut ur serverhallarna och in i fysiska kroppar. Det är precis här RynnBrain kommer in i bilden. Modellen är designad för att fungera som en “hjärna” för robotar, vilket möjliggör fysisk slutledningsförmåga och exekvering av komplexa uppgifter.

En arkitektur för verklig förståelse

RynnBrain bygger på arkitekturen Qwen3-VL och är utvecklad för att överbrygga klyftan mellan digital perception och fysisk handling. Genom att använda denna teknik kan maskiner nu uppfatta sin omgivning, resonera kring vad de ser och därefter agera i verkliga miljöer.

För att göra tekniken tillgänglig och anpassningsbar har DAMO Academy valt att släppa RynnBrain som öppen källkod i flera olika konfigurationer. Detta inkluderar två “dense”-versioner med 2 miljarder respektive 8 miljarder parametrar, samt en betydligt tyngre variant: en “mixture-of-experts” (MoE) med hela 30 miljarder parametrar. Denna bredd gör det möjligt för utvecklare att välja den modell som bäst passar deras hårdvara och specifika behov.

Mer än bara syn – rumslig medvetenhet och minne

Det som får RynnBrain att sticka ut är dess djupa tekniska kapacitet. Det handlar inte bara om att identifiera objekt, utan om att förstå var de befinner sig i relation till varandra. Modellen utrustar robotar med rumslig medvetenhet (spatial awareness), objektigenkänning och förmågan att skapa 3D-kartor av sin omgivning.

Men intelligensen stannar inte vid ögonblicksbilder. RynnBrain har stöd för episodiskt minne, vilket innebär att roboten kan komma ihåg tidigare händelser. Den kan även räkna objekt och identifiera rörelsebanor (motion trajectory identification). Dessa funktioner är kritiska för att stödja nedströmsmodeller inom kategorin Vision-Language-Action (VLA), där synintryck och språkliga instruktioner omvandlas till fysisk handling.

Från teori till hushållssysslor

Teori är en sak, men hur fungerar det i praktiken? I demonstrationer av tekniken har RynnBrain visat sig kapabel att driva robotar som utför helt vanliga hushållssysslor. Modellen har bland annat styr robotar som sorterar frukt och hämtar mjölk.

Detta kan låta trivialt för en människa, men för en robot kräver det en enorm beräkningskraft och koordination: att identifiera mjölkpaketet, förstå var det står, planera rörelsen för att greppa det utan att krossa det, och sedan navigera tillbaka.

En ny spelare på den globala arenan

Lanseringen av RynnBrain är en tydlig signal om att Alibaba positionerar sig för att konkurrera med de allra största aktörerna inom robotik. Genom att erbjuda en kraftfull, öppen “hjärna” för robotar ställer de sig nu i samma ring som plattformar från giganter som Nvidia, Google och Tesla.

Med RynnBrain tar vi ytterligare ett steg mot en framtid där robotar inte bara är verktyg, utan intelligenta assistenter som förstår och interagerar med vår värld på våra villkor.

Källor

Känner du någon som skulle uppskatta detta? Tipsa dem genom att dela artikeln!

Relaterade artiklar

Nytt och Aktuellt