Nyílt levél az AI kockázatairól

Az OpenAI, az Anthropic és a Google DeepMind alkalmazottai nyílt levélben hívták fel a figyelmet a mesterséges intelligencia szabályozatlanságából fakadó veszélyekre, különös tekintettel a dezinformáció terjedésére.

Az OpenAI, az Anthropic és a Google DeepMind vállalatok jelenlegi és korábbi alkalmazottai, köztük az MI „keresztapái”, Yoshua Bengio és Geoffrey Hinton, valamint Stuart Russell világhírű informatikus, aggodalmukat fejezték ki a mesterséges intelligencia fejlődésével járó kockázatok miatt. Egy nyílt levélben hívták fel a figyelmet arra, hogy az AI technológia szabályozatlansága komoly veszélyeket rejt magában.

A levél szerzői szerint az AI vállalatok pénzügyi érdekei akadályozzák az effektív felügyeletet, ami tovább növeli a kockázatokat. Tizenhárom szakember, köztük az OpenAI 11 jelenlegi és volt alkalmazottja, az Anthropic és a Google DeepMind több korábbi és jelenlegi dolgozója írta alá a dokumentumot, amely rámutat a vállalati struktúrák elégtelenségére az AI rendszerek megfelelő felügyeletében.

A nyílt levél kiemeli, hogy a mesterséges intelligencia szabályozatlansága olyan problémákat eredményezhet, mint a dezinformáció terjedése, az önálló AI rendszerek kontrollálhatatlansága, és a társadalmi egyenlőtlenségek további mélyülése. Az aláírók attól tartanak, hogy az MI növelheti a társadalmi egyenlőtlenségeket, felgyorsíthatja az álhírek terjedését, és azt is elképzelhetőnek tartják, hogy az MI-rendszerek önállóvá válnak és akár sok embert is megölhetnek.

Példaként hozzák fel, hogy képgeneráló algoritmusok olyan képeket hoztak létre, amelyek a szavazásokkal kapcsolatosan téves információkat tartalmaztak, annak ellenére, hogy ez ellentétes az irányelvekkel. A levél szerzői szerint nem szabad bízni abban, hogy az AI cégek önként megosztják az ilyen jellegű adatokat, mivel ezek a rendszerek képesek gyorsan és olcsón emberhez hasonlatos szövegeket, képeket és hangokat előállítani.

Az elmúlt hetekben több magasabb beosztású alkalmazott is otthagyta például az OpenAI-t, többek között azért, mert úgy látták, hogy a vezetőség túlságosan nagy hangsúlyt fektet a profitmaximalizációra, és ezért hajlandóak beáldozni a szükséges óvintézkedéseket. Liz Bourgeois, az OpenAI szóvivője szerint a cég egyetért abban, hogy a heves vita rendkívül fontos ebben az iparágban. A Google és az Anthropic nem reagáltak az újságírói megkeresésekre.

Végül a csoport arra szólította fel az AI cégeket, hogy támogassák alkalmazottaikat abban, hogy nyíltan beszélhessenek a mesterséges intelligencia kockázatairól, töröljék a titoktartási záradékokat, és nyújtsanak módot arra, hogy az alkalmazottak anonim módon is fel tudják hívni a figyelmet problémákra. A levélírók szerint a kormányzati felügyelet hiányában csak az alkalmazottak tudják felelősségre vonni a cégeket, de a létező, szivárogtatókat védő törvények nem feltétlenül vonatkoznak az MI-vel foglalkozó szivárogtatókra, mivel az ipar nincs rendesen szabályozva.

: Forrás: Reuters : Forrás: Washington Post