Orosz dezinformációt terjeszthetnek a mesterséges intelligenciák

A NewsGuard elemzői által végzett vizsgálatok során kiderült, hogy több mesterséges intelligencia, köztük az OpenAI által fejlesztett ChatGPT is, kritika nélkül terjesztett olyan információkat, amelyek az orosz dezinformációs narratíváknak felelnek meg.

A NewsGuard által megvizsgált tíz mesterséges intelligencia közül több is hamis információkat közölt, amikor 57 különböző kérdésre kellett válaszolniuk. Ezek a kérdések úgy voltak megfogalmazva, hogy feltárják, hogyan reagálnak a chatbotok az ismert orosz dezinformációs narratívákra. A The New York Times beszámolója szerint a NewsGuard összesen 19 olyan hamis állítást azonosított, amelyek az orosz dezinformációs hálózathoz köthetők, például azt, hogy Volodimir Zelenszkij ukrán elnök korrupt államfő lenne.

A NewsGuard nem csak az OpenAI ChatGPT-jét, hanem a Microsoft és a Meta mesterséges intelligenciáit is tesztelte. A tanulmány szerint előfordult, hogy a mesterséges intelligenciák kritika nélkül közölték a dezinformációt, de volt, amikor más állításokkal ellensúlyozták azt.

A vizsgálat során kiderült, hogy a mesterséges intelligenciák által terjesztett hamis információk egy volt amerikai tengerészgyalogos, John Mark Dougan nevéhez köthetők. Dougan 2016-ban menekült az Egyesült Államokból Oroszországba, miután hackelés vádjával akarták bíróság elé állítani. Oroszországból olyan hamis információkat terjesztett, mint például, hogy az ukrán katonák saját állampolgáraikat terrorizálják, és háborús bűnöket követnek el, amelyhez a NATO támogatást nyújt.

Az Interesting Engineering cikke szerint a mesterséges intelligenciák kapcsán egyre növekvő aggodalom tapasztalható, hogy a rendszerek tovább erősíthetik az álhírek terjedését. Ezért a NewsGuard törekvéseket indított, hogy a tanulmány eredményei alapján javaslatokat tegyen az Egyesült Államok mesterséges intelligencia szabályozására.