Az OpenAI feloszlatta az AI-kockázatokat felügyelő csapatát

Az OpenAI megszüntette azt a részleget, amely a mesterséges intelligencia hosszú távú kockázataival foglalkozott, csupán egy évvel azután, hogy a vállalat bejelentette a csoport létrehozását.

A CNBC jelentése szerint az OpenAI által tavaly bejelentett Superalignment csapat a "nálunk sokkal okosabb AI-rendszerek irányítására és ellenőrzésére irányuló tudományos és technikai áttörésekre" összpontosított volna. A vállalat korábban azt tervezte, hogy számítási teljesítményének 20%-át fordítja erre a kezdeményezésre. A csapat feloszlatásáról szóló döntés következtében a csapat tagjait más pozíciókba helyezik át a vállalaton belül.

Az OpenAI társalapítói, Ilya Sutskever és Jan Leike nemrégiben jelentették be távozásukat a Microsoft által támogatott startupból. Leike szerint az OpenAI biztonsági kultúrája és folyamatai háttérbe szorultak a "csillogó termékek" mögött. Leike hozzáfűzte, hogy az OpenAI-nak "a biztonságot előtérbe helyező AGI-vállalattá" kellene válnia, és aggodalmát fejezte ki, hogy a vállalat nem a megfelelő úton halad a kihívások megoldása felé.

Leike és Sutskever távozásukat az X közösségi médiaplatformon jelentették be, és Leike különösen hangsúlyozta, hogy a vállalatnak nagyobb hangsúlyt kellene fektetnie a biztonságra, megfigyelésre, felkészültségre és a társadalmi hatásokra. Leike szerint a csapata széllel szemben vitorlázott, és nehézségekbe ütközött a számítástechnikai erőforrásokért folytatott küzdelemben, ami megnehezítette a létfontosságú kutatások elvégzését.

Leike figyelmeztetése szerint "az embernél okosabb gépeket építeni természeténél fogva veszélyes vállalkozás".