Az Anthropic szigorítja a bizonyos régiókba irányuló AI-értékesítésre vonatkozó korlátozásokat

Az Anthropic szigorítja a bizonyos régiókba irányuló AI-értékesítésre vonatkozó korlátozásokat

Az Anthropic, egy mesterséges intelligencia biztonságával és kutatásával foglalkozó vállalat fokozza erőfeszítéseit a technológiáival való visszaélések megakadályozására, megszigorítva az értékesítésre és a használatra vonatkozó korlátozásokat bizonyos régiókban. Ez a lépés a vállalat friss bejelentése szerint a jogi, szabályozási és biztonsági aggályokra adott válasz.

Új szolgáltatási feltételek

Egy stratégiai frissítés keretében az Anthropic felülvizsgálta szolgáltatási feltételeit, hogy megtiltja szolgáltatásainak használatát a potenciális biztonsági kockázatok miatt nem támogatottnak ítélt régiókban. A vállalat kiemeli, hogy az ilyen régiókból származó szervezetek, köztük olyan ellenséges nemzetek, mint Kína, közvetve, más országokban bejegyzett leányvállalatokon keresztül férnek hozzá a szolgáltatásaihoz.

Biztonsági aggályok

Az Anthropic aggodalmát fejezte ki azzal kapcsolatban, hogy a tekintélyelvű rendszerek, például Kína befolyása alatt álló vállalatok kötelesek lehetnek adatokat megosztani vagy együttműködni a hírszerző szolgálatokkal. Az ilyen kötelezettségek nemzetbiztonsági kockázatot jelentenek, mivel ezek a szervezetek a mesterséges intelligencia képességeit ellenséges katonai és hírszerzési célok támogatására használhatják. Az is elképzelhető, hogy saját mesterséges intelligencia fejlesztéseiket is előmozdítják, és ezáltal versenybe szállnak az Egyesült Államok és a szövetséges országok megbízható technológiai vállalataival.

A regionális korlátozások megerősítése

E kockázatok mérséklése érdekében az Anthropic megerősíti a regionális korlátozásokat. A frissített irányelv megtiltja, hogy az Anthropic szolgáltatásaihoz hozzáférjenek azok a vállalatok vagy szervezetek, amelyek több mint 50%-ban nem támogatott régiókban lévő szervezetek tulajdonában vannak, függetlenül a működési helyüktől. Ennek a változtatásnak a célja annak biztosítása, hogy az Anthropic politikája összhangban legyen a valós kockázatokkal és fenntartsa a demokratikus értékeket.

Érdekérvényesítés az erős politikákért

A belső politikai változásokon túlmenően az Anthropic továbbra is támogatja a szigorú exportellenőrzéseket, hogy megakadályozza, hogy az autoriter államok fejlesszék a határ menti mesterséges intelligencia képességeket. A vállalat hangsúlyozza a hazai energiaprojektek felgyorsításának fontosságát a mesterséges intelligencia infrastruktúrájának támogatása érdekében, valamint a mesterséges intelligencia modellek szigorú értékelésének fontosságát a nemzetbiztonsági vonatkozások szempontjából. Ezeket az intézkedéseket alapvető fontosságúnak tartják ahhoz, hogy megvédjék a mesterséges intelligencia fejlesztését az ellenséges nemzetek visszaéléseitől.

Összefoglalva, az Anthropic elkötelezettsége a felelős AI-fejlesztés mellett határozott intézkedéseket foglal magában az átalakuló technológiáknak az USA és a szövetségesek stratégiai érdekeivel való összehangolása érdekében, a demokratikus értékek előmozdítása, valamint az AI biztonságának és védelmének biztosítása mellett.

További részletekért látogasson el az Anthropic weboldalára.

Kép forrása: Anthropic: Shutterstock

Via: Blockchain News