Red Hat har officiellt tillkännagivit lanseringen av Red Hat AI Enterprise, en ny plattform utformad för att driftsätta och hantera modeller, AI-agenter och applikationer i hybridmolnmiljöer. Systemet beskrivs som en del av en utvecklingsstack som sträcker sig från “metal-to-agent”.
Den nya plattformen syftar till att hantera hela livscykeln för artificiell intelligens i komplexa miljöer. Genom att integrera specifika komponenter för både inferens och infrastrukturhantering positionerar Red Hat denna lösning som ett verktyg för moderna AI-arbetsbelastningar.
En stack från metall till agent
Red Hat AI Enterprise utgör en del av vad företaget benämner som en “metal-to-agent”-utvecklingsstack. I kärnan av denna arkitektur återfinns Red Hat OpenShift. För att hantera de krav som ställs på skalbar inferens inkorporerar plattformen även Red Hat:s vLLM-inferensmotor (vLLM inference engine).
Red Hat AI Factory med Nvidia
I samband med lanseringen introduceras även Red Hat AI version 3.3. En central del av denna uppdatering är “Red Hat AI Factory with Nvidia”. Detta är en samutvecklad plattform som kombinerar verktyg för modellhantering med Nvidias mjukvara för accelererad beräkning (accelerated computing software).
Syftet med denna samutvecklade lösning är att automatisera tillhandahållandet av infrastruktur (infrastructure provisioning) samt att optimera prestandan för AI-arbetsbelastningar. Genom att förena modellhanteringsverktyg med Nvidias mjukvara skapas en integrerad miljö för effektiv drift.
Sammanfattning
Med lanseringen av Red Hat AI Enterprise och version 3.3 erbjuder Red Hat en plattform centrerad kring OpenShift och vLLM för hybridmolnmiljöer. Genom samarbetet kring Red Hat AI Factory with Nvidia adresseras även behovet av automatiserad infrastruktur och prestandaoptimering för AI-modeller och agenter.

