Az NVIDIA dUPF előkészíti az utat a 6G és az AI-natív hálózatok számára
A távközlési iparág jelentős átalakulás előtt áll a 6G hálózatok felé való elmozdulás során, és az NVIDIA kulcsfontosságú szerepet játszik ebben a fejlődésben. A vállalat bevezetett egy gyorsított és elosztott felhasználói sík funkciót (dUPF), amely az NVIDIA szerint az AI-natív rádió-hozzáférési hálózatok (AI-RAN) és az AI-Core fejlesztésére szolgál.
A dUPF és fontosságának megértése
A dUPF az 5G maghálózat létfontosságú eleme, amelyet most a 6G-hez igazítanak. Ez kezeli a felhasználói sík csomagfeldolgozását elosztott helyeken, közelebb hozva a számításokat a hálózati szélhez. Ez csökkenti a késleltetési időt és optimalizálja a hálózati erőforrásokat, így nélkülözhetetlen a valós idejű alkalmazások és az AI forgalomirányítás számára. Az adatfeldolgozásnak a felhasználókhoz és a rádiós csomópontokhoz való közelítésével a dUPF rendkívül alacsony késleltetésű műveleteket tesz lehetővé, ami kritikus követelmény az olyan következő generációs alkalmazások számára, mint az autonóm járművek és a távoli műtétek.
A dUPF építészeti előnyei
Az NVIDIA dUPF implementációja a DOCA Flow technológiát használja ki a hardveresen gyorsított csomagirányítás és -feldolgozás lehetővé tétele érdekében. Ez energiahatékony, alacsony késleltetésű műveleteket eredményez, ami megerősíti a dUPF szerepét a 6G AI-Native Wireless Networks Initiative (AI-WIN) kezdeményezésben. Az AI-WIN kezdeményezés, amely olyan iparági vezetők, mint a T-Mobile és a Cisco együttműködése, célja a 6G számára AI-natív hálózati stackek létrehozása.
A dUPF előnyei az NVIDIA platformján
Az NVIDIA AI Aerial platform, a gyorsított számítási platformok és szolgáltatások csomagja támogatja a dUPF telepítését. A legfontosabb előnyök közé tartoznak:
- Ultraalacsony késleltetés nulla csomagveszteséggel, ami javítja a felhasználói élményt az éles AI következtetésekhez.
- Költségcsökkentés az elosztott feldolgozás révén, csökkentve a szállítási költségeket.
- Energiahatékonyság a hardveres gyorsítás révén, csökkentve a CPU-használatot és az energiafogyasztást.
- Új bevételi modellek az AI-natív szolgáltatásokból, amelyek valós idejű szélsőséges adatfeldolgozást igényelnek.
- Javított hálózati teljesítmény és skálázhatóság az AI- és RAN-forgalom számára.
Valós világbeli felhasználási esetek és megvalósítás
A dUPF képességei különösen előnyösek az azonnali reakciókészséget igénylő alkalmazások, például az AR/VR, a játékok és az ipari automatizálás számára. A dUPF funkciók hálózati szélén történő elhelyezésével az adatok helyben feldolgozhatók, így kiküszöbölhetők a backhaul késedelmek. Ez a lokalizált feldolgozás az adatvédelmet és a biztonságot is javítja.
A gyakorlatban az NVIDIA dUPF referencia implementációját laboratóriumi körülmények között validálták, és 100 Gbps átviteli sebességet mutattak ki nulla csomagveszteséggel. Ez jól mutatja a dUPF-ben rejlő lehetőségeket az AI-forgalom hatékony kezelésében, minimális CPU-erőforrás felhasználásával.
Ipari alkalmazás és jövőbeli kilátások
A Cisco az NVIDIA platformja által felgyorsított dUPF architektúrát az AI-központú hálózatok sarokköveként fogadta el. Az együttműködés célja, hogy a távközlési szolgáltatók nagy teljesítményű és energiahatékony dUPF-megoldásokat alkalmazhassanak, megnyitva az utat az olyan alkalmazások előtt, mint a videókeresés, az ügynöki AI és az ultra-reagáló szolgáltatások.
A távközlési ágazat folyamatos fejlődésével az NVIDIA dUPF-je kulcsfontosságú technológiaként tűnik ki a 6G hálózatok felé való átmenetben, és ígéretesnek tűnik a jövőbeli AI-központú alkalmazásokhoz szükséges infrastruktúra biztosításában.
A kép forrása: Shutterstock
Via: Blockchain News