ChatGPT Godmode: A tiltott válaszok trükkje

Rengeteg biztonsági mechanizmus van ma már beépítve a mesterséges intelligenciákba, hogy megelőzzék a veszélyes vagy épp sértő tartalmak készítését, de egy hackernek sikerült kijátszania ezeket a védelmeket. A Futurism szerint egy hacker úgy módosította a legfejlettebb nyelvi modellt, a GPT-4-et, hogy az olyan tiltott kérdésekre is válaszoljon, mint a drog- vagy bombakészítés.

A hacker által fejlesztett chatbot, amelyet Godmode-nak nevezett el, képes volt választ adni olyan kérdésekre, mint a metamfetamin vagy napalm otthoni alapanyagokból történő előállítása, valamint arra is, hogyan lehet elkötni egy autót. A Godmode kifejezés a rendszerüzemeltetésben gyakran használt, és jellemzően korlátlan hozzáférést jelent.

A hibát a hacker úgy hozta létre, hogy a promptjában lévő betűket számokra cserélte, ezzel megtévesztve az algoritmust, bár az nem ismert, hogy ez pontosan hogyan zavarta meg a mesterséges intelligenciát. Az OpenAI szóvivője, Colleen Rize megerősítette, hogy tudomásuk van a problémáról, és már léptek is annak orvoslása érdekében.