Egy kutatás szerint kiváló hacker a GPT–4

Átaolvasta a leírásokat és cselekedett. A konkurens modellek kimaradtak a kutatásból. Aki be tudja csapni a nyelvi modelleket, igen potens kibertámadó eszközre tesz szert.

Egy friss kutatás szerint az OpenAI legújabb nyelvi modellje, a GPT–4 képes önállóan kihasználni a számítógépes biztonsági hiányosságokat, ha megfelelő szakmai leírások állnak rendelkezésre – számolt be róla a Register. Az Illinoisi Egyetem (UIUC) informatikusai által végzett vizsgálatban a GPT–4-et arra kérték, hogy a CVE adatbázisban szereplő ismert sebezhetőségek alapján írjon kihasználó programokat.

A kutatók 15 olyan biztonsági rés leírását használták, amelyek ismertek voltak, de a hivatalos javításokat még nem alkalmazták széles körben. A tesztek során a GPT–4 a sebezhetőségek 87 százalékát volt képes kihasználni, míg a GPT3.5 és más nyílt forrású nyelvi modellek esetében ez az arány nulla százalék volt.

A kutatás során több mesterséges intelligenciát is teszteltek, köztük a Mistral, az OpenChat 3.5 és a Meta Llama–2 modelljeit. Azonban fontos megjegyezni, hogy az OpenAI termékének legfőbb konkurenseit, mint az Anthropic által fejlesztett Claude 3-at és a Google Gemini 1.5 Prót, nem vizsgálták, mivel a kutatóknak nem volt hozzáférésük ezekhez a modellekhez.

Daniel Kang, az UIUC adjunktusa elmondta, hogy a GPT-4 képes volt önállóan kihasználni a sebezhetőségeket, és szükség esetén a CVE adatbázisban található linkeket is felhasználta információgyűjtés céljából. Kang szerint, ha a GPT-5 még fejlettebb képességekkel rendelkezik majd, akkor a jövőben a hackerek dolga sokkal könnyebbé válhat.