Orosz, kínai és izraeli dezinformáció terjesztésére használták az OpenAI platformját

Az OpenAI csütörtökön kiadta első jelentését arról, hogyan használják a mesterséges intelligencia eszközeit rejtett befolyásolási műveletekre, amelyből kiderült, hogy oroszországi, kínai, izraeli és iráni eredetű dezinformációs kampányokat lepleztek le.

A vállalat szerint rosszhiszemű szereplők az OpenAI generatív mesterséges intelligencia modelljeit használták propaganda tartalmak létrehozására, különböző nyelvekre történő fordítására és posztolására a közösségi média platformokon, de egyik kampány sem ért el széles közönséget vagy nagyobb hatást 2024 májusa óta.

Az OpenAI 39 oldalas jelentése részletesen beszámol arról, hogy az elmúlt három hónapban öt rosszindulatú fiókot találtak és tiltottak le, amelyek mögött állami és magánszereplőket azonosítottak.

Oroszországból két esetet tártak fel, amikor olyan tartalmakat hoztak létre, amelyek az Egyesült Államokat, Ukrajnát és több balti nemzetet kritizálták. Az egyik művelet, a "Doppelganger" nevű orosz kampány, az OpenAI modelljeit használta fel szalagcímek generálására, hírcikkek Facebook-bejegyzésekké alakítására és többnyelvű kommentek létrehozására, hogy ezzel Ukrajna támogatását csökkentsék. Egy másik orosz csoport az OpenAI modelljeit használta egy Telegram oldal kódjához, amely rövid politikai kommenteket tett közzé angol és orosz nyelven, Ukrajnát, Moldovát, az Egyesült Államokat és a balti államokat célozva.

Kína befolyásolási művelete, a "Spamouflage" hálózat, angol, kínai, japán és koreai nyelven generált szöveget, amelyeket aztán kézzel a Twitteren és a Mediumon posztoltak, valamint a közösségi média aktivitásának kutatására és szövegalapú tartalmak generálására több nyelven, különböző platformokon használták az OpenAI modelljeit.

Iráni szereplők, az "International Union of Virtual Media" részeként, teljes cikkeket generáltak, amelyek az Egyesült Államokat és Izraelt támadták, és ezeket angol és francia nyelvre fordították, több nyelven történő tartalomgeneráláshoz használva az AI-t.

Egy Stoic nevű izraeli politikai cég hamis közösségi média fiókok hálózatát üzemeltette, amelyek különféle tartalmakat hoztak létre, többek között posztokat, amelyek az Izrael gázai háborúja elleni amerikai diák tüntetéseket antiszemitának állították be, és hamis Facebook-fiókokat használt, hogy befolyásolási kampányt folytasson az amerikai és kanadai embereket célozva.

Az OpenAI kitiltotta ezeket a felhasználókat, és többen már ismertek voltak a kutatók és hatóságok számára. Az Egyesült Államok pénzügyminisztériuma márciusban szankciókat szabott ki két orosz férfira, akik állítólag egy, az OpenAI által észlelt kampány mögött álltak, míg a Meta is kitiltotta az idei évben a Stoicot platformjáról a szabályzatainak megsértése miatt.

A jelentés kiemeli, hogy a generatív mesterséges intelligencia hogyan válik a dezinformációs kampányok részévé, megjegyezve, hogy „mindegyik művelet használt valamilyen mértékben mesterséges intelligenciát, de egyik sem kizárólagosan”. Az AI által generált anyag csak egy volt a sokféle tartalom között, amelyeket posztoltak, a hagyományosabb formátumok, például a kézzel írt szövegek vagy az internetről másolt mémek mellett.

Bár egyik kampány sem eredményezett jelentős hatást, a technológiájuk használata azt mutatja, hogy a rosszhiszemű szereplők úgy gondolják, a generatív mesterséges intelligencia lehetővé teszi számukra a propaganda előállítását, és a befolyásolási műveletekben részt vevő szereplők a korábbinál sokkal nagyobb mennyiségű szöveg és kép generálására használták a generatív mesterséges intelligenciát, mellyel többek között a közösségi médiában közzétett bejegyzésekhez generáltak hamis kommenteket. Az OpenAI kijelentette, hogy tervezi, hogy rendszeresen közzétesz hasonló jelentéseket a titkos befolyásolási műveletekről, valamint eltávolítja azokat a fiókokat, amelyek megsértik az irányelveit.