Red Hat, førende leverandør af open source-løsninger, lancerer Red Hat AI Enterprise, en integreret AI-platform til implementering og administration af AI-modeller, agenter og applikationer i hybrid cloud. Platformen er en del af Red Hats AI-portefølje sammen med Red Hat AI Inference Server, Red Hat OpenShift AI og Red Hat Enterprise Linux AI. Samtidig lanceres Red Hat AI 3.3 med opdateringer på tværs af hele AI-tilbuddet. Sammen udgør løsningerne en omfattende ”metal-to-agent-stack”, der forbinder Linux- og Kubernetes-infrastruktur med avancerede agentfunktioner, hvilket hjælper organisationer med at gå fra spredte eksperimenter til kontrollerede, autonome operationer.
Virksomheders AI-landskab gennemgår i øjeblikket en hurtig forandring fra enkle chatgrænseflader til mere avancerede, autonome og agentbaserede arbejdsgange, der kræver dyb integration på tværs af hele teknologistacken. På trods af denne udvikling har mange organisationer svært ved at gå fra pilotprojekter til implementering i stor skala på grund af fragmenterede værktøjer og usammenhængende infrastruktur. Red Hat AI Enterprise samler model- og applikationslivscyklusser, så IT-teams kan administrere AI som et standardiseret virksomhedssystem i stedet for isolerede projekter.
Red Hat AI Enterprise: Et stabilt fundament for AI i produktionen
Red Hat AI Enterprise tilbyder højtydende AI-inferens, modelfinjustering samt implementering og styring af AI-agenter med support til alle modeller og al hardware i alle miljøer. Platformen er baseret på Red Hat OpenShift og leverer en skalerbar, samlet og sikker AI-oplevelse. Som en del af NVIDIAs AI-infrastruktur har NVIDIA og Red Hat i fællesskab udviklet den nye Red Hat AI Factory med NVIDIA-løsning. Ved at kombinere Red Hat AI Enterprise og NVIDIA AI Enterprise får virksomheder en kraftfuld platform, der gør det muligt at bringe AI-løsninger hurtigere i produktion og skalere deres AI-initiativer.
De vigtigste fordele ved Red Hat AI Enterprise omfatter:
– Hurtigere og mere omkostningseffektiv AI-inferens med vLLM og llm-d.
– Integreret overvågning og livscyklusstyring for bedre kontrol og reduceret risiko.
– Fleksibel implementering af AI-modeller, agenter og applikationer i hybrid cloud.
– Udvidet strategisk fleksibilitet med Red Hat AI 3.3
Den nye version udvider modelunderstøttelsen, styrker optimeringen til næste generations hardware og forbedrer driftsstabiliteten for avancerede AI-modeller.
Nye funktioner og forbedringer omfatter:
– Udvidet modeludbud via OpenShift AI Catalog og nye forbedringer af ydeevne og funktioner til multimodale og agentbaserede arbejdsgange.
– Selvbetjeningsadgang til AI-modeller via API’er (MaaS, teknologi-preview).
– Udvidet hardwaresupport, herunder teknologi-preview for generativ AI på CPU (oprindeligt Intel) og support for nye acceleratorer fra NVIDIA og AMD.
– Konsistent og sikker data-til-model-livscyklus via Red Hat AI Python Index, fra eksperimentering til gentagelige, sikkerhedsfokuserede produktionsflows.
– Forbedret overvågning, sikkerhed og styring af AI-miljøer.
– On-demand GPU-adgang via interne GPU-as-a-Service-løsninger med intelligent orkestrering.
– For at AI kan skabe reel forretningsværdi, skal teknologien være en del af virksomhedens softwareplatform og ikke et sideprojekt. Med Red Hat AI Enterprise og Red Hat AI 3.3 gør vi det nemmere at overføre AI fra pilotprojekter til kontrolleret og skalerbar drift i hybrid cloud, siger Joe Fernandes, Vice President og leder af AI Business Unit hos Red Hat.


