Az NVIDIA dUPF előkészíti az utat a 6G és az AI-natív hálózatok számára

Az NVIDIA dUPF előkészíti az utat a 6G és az AI-natív hálózatok számára

A távközlési iparág jelentős átalakulás előtt áll a 6G hálózatok felé való elmozdulás során, és az NVIDIA kulcsfontosságú szerepet játszik ebben a fejlődésben. A vállalat bevezetett egy gyorsított és elosztott felhasználói sík funkciót (dUPF), amely az NVIDIA szerint az AI-natív rádió-hozzáférési hálózatok (AI-RAN) és az AI-Core fejlesztésére szolgál.

A dUPF és fontosságának megértése

A dUPF az 5G maghálózat létfontosságú eleme, amelyet most a 6G-hez igazítanak. Ez kezeli a felhasználói sík csomagfeldolgozását elosztott helyeken, közelebb hozva a számításokat a hálózati szélhez. Ez csökkenti a késleltetési időt és optimalizálja a hálózati erőforrásokat, így nélkülözhetetlen a valós idejű alkalmazások és az AI forgalomirányítás számára. Az adatfeldolgozásnak a felhasználókhoz és a rádiós csomópontokhoz való közelítésével a dUPF rendkívül alacsony késleltetésű műveleteket tesz lehetővé, ami kritikus követelmény az olyan következő generációs alkalmazások számára, mint az autonóm járművek és a távoli műtétek.

A dUPF építészeti előnyei

Az NVIDIA dUPF implementációja a DOCA Flow technológiát használja ki a hardveresen gyorsított csomagirányítás és -feldolgozás lehetővé tétele érdekében. Ez energiahatékony, alacsony késleltetésű műveleteket eredményez, ami megerősíti a dUPF szerepét a 6G AI-Native Wireless Networks Initiative (AI-WIN) kezdeményezésben. Az AI-WIN kezdeményezés, amely olyan iparági vezetők, mint a T-Mobile és a Cisco együttműködése, célja a 6G számára AI-natív hálózati stackek létrehozása.

A dUPF előnyei az NVIDIA platformján

Az NVIDIA AI Aerial platform, a gyorsított számítási platformok és szolgáltatások csomagja támogatja a dUPF telepítését. A legfontosabb előnyök közé tartoznak:

  • Ultraalacsony késleltetés nulla csomagveszteséggel, ami javítja a felhasználói élményt az éles AI következtetésekhez.
  • Költségcsökkentés az elosztott feldolgozás révén, csökkentve a szállítási költségeket.
  • Energiahatékonyság a hardveres gyorsítás révén, csökkentve a CPU-használatot és az energiafogyasztást.
  • Új bevételi modellek az AI-natív szolgáltatásokból, amelyek valós idejű szélsőséges adatfeldolgozást igényelnek.
  • Javított hálózati teljesítmény és skálázhatóság az AI- és RAN-forgalom számára.

Valós világbeli felhasználási esetek és megvalósítás

A dUPF képességei különösen előnyösek az azonnali reakciókészséget igénylő alkalmazások, például az AR/VR, a játékok és az ipari automatizálás számára. A dUPF funkciók hálózati szélén történő elhelyezésével az adatok helyben feldolgozhatók, így kiküszöbölhetők a backhaul késedelmek. Ez a lokalizált feldolgozás az adatvédelmet és a biztonságot is javítja.

A gyakorlatban az NVIDIA dUPF referencia implementációját laboratóriumi körülmények között validálták, és 100 Gbps átviteli sebességet mutattak ki nulla csomagveszteséggel. Ez jól mutatja a dUPF-ben rejlő lehetőségeket az AI-forgalom hatékony kezelésében, minimális CPU-erőforrás felhasználásával.

Ipari alkalmazás és jövőbeli kilátások

A Cisco az NVIDIA platformja által felgyorsított dUPF architektúrát az AI-központú hálózatok sarokköveként fogadta el. Az együttműködés célja, hogy a távközlési szolgáltatók nagy teljesítményű és energiahatékony dUPF-megoldásokat alkalmazhassanak, megnyitva az utat az olyan alkalmazások előtt, mint a videókeresés, az ügynöki AI és az ultra-reagáló szolgáltatások.

A távközlési ágazat folyamatos fejlődésével az NVIDIA dUPF-je kulcsfontosságú technológiaként tűnik ki a 6G hálózatok felé való átmenetben, és ígéretesnek tűnik a jövőbeli AI-központú alkalmazásokhoz szükséges infrastruktúra biztosításában.

A kép forrása: Shutterstock

Via: Blockchain News