A GPT-4 veszélyes eszköz lehet hackerek kezében

Az OpenAI GPT-4-es nyelvi modellje képes lehet önállóan kihasználni az informatikai rendszerek biztonsági réseit, amelyeket a CVE-adatbázisban található leírások alapján azonosít, állítja egy új tanulmány. Ez a képesség a mesterséges intelligenciát komoly eszközzé teheti a hackerek számára.

A mesterséges intelligencia számos előnnyel szolgálhat az emberiség számára, de egyúttal aggodalmakat is kelt a technológia potenciális veszélyei miatt. Az Illinoisi Egyetem szakemberei által készített tanulmány szerint a GPT-4 képes lehet a biztonsági rések kihasználására, ha hozzáfér a CVE-adatbázishoz és egy automatizáló szoftverhez.

A kutatók 15 különböző, már ismert, de esetleg még nem javított sebezhetőséget tartalmazó adathalmazt vizsgáltak, és a GPT-4 87 százalékukat képes volt kihasználni. Ezzel szemben más nyelvi modellek, mint a GPT 3.5 és egyéb nyílt forráskódú változatok, nem mutattak ilyen képességeket.

A tanulmányban nem szerepeltek a GPT-4 közvetlen versenytársai, mint például a Google Gemini 1.5 Pro, mivel a kutatók nem fértek hozzá ezekhez a modellekhez, de terveik között szerepel ezeknek a tesztelése is a jövőben.

Daniel Kang, az Illinoisi Egyetem adjunktusa szerint a GPT-4 képes önállóan végrehajtani a hibák kiaknázásához szükséges lépéseket. Ez azt jelenti, hogy a GPT-4 veszélyes eszközzé válhat a hackerek kezében, és megkönnyítheti a kibertámadások végrehajtását. A jövőbeni GPT-5 modell pedig még fejlettebb lehet ebben a tekintetben.