A mesterséges intelligencia jövője: felelősség, átláthatóság és adatvédelem

A mesterséges intelligencia (MI) fejlődésének irányát és a vele szembeni félelmek leküzdését az átláthatóság, az elszámoltathatóság és az adatvédelem biztosítása határozhatja meg. A szakértők szerint a gépi intelligencia emberi gondolkodáshoz hasonló működése még csak távoli lehetőség, amely 2060-ig valósulhat meg, vagy sem.

Az MI fejlődésének felgyorsításához az úgynevezett "aktív következtetés" modelljét kell alkalmazni, amely folyamatosan frissíti a kiindulási feltételezéseket, csökkentve ezzel az állítások bizonytalanságát és növelve az előrejelzések pontosságát. Egy ilyen alapon működő MI kíváncsi lenne a körülötte lévő világra, és többet akarna megtudni róla, ami jelentős előrelépést jelentene a jelenlegi, képzés után nem tovább fejlődő mesterséges intelligenciákhoz képest.

Az "aktív következtetés" lehetővé tenné, hogy átlássuk a MI gondolkodási folyamatát, megismerve annak döntéseinek hátterét és okait. Ez ellentétben áll a jelenlegi MI-kkel, ahol a kérdéstől a válaszig tartó folyamat egy "fekete doboz", amely számos jogi és etikai kérdést vet fel.

Az "aktív következtetésre" épülő MI elszámoltathatóságot és bizalmat eredményezne, mivel ismernénk a döntések okait és folyamatát. A MI már most is jelentős változásokat hoz életünkbe és munkamódszereinkbe, és egyre több a szabályozást sürgető hang.

Isaac Asimov szerint a számítógépek felelőssége azoké az embereké, akik programozzák és kezelik őket. Ezért fontos megkérdezni, hogy milyen MI-t szeretnénk a jövőben: egy "fekete dobozban" döntéseket hozót, vagy egy elszámoltatható és átlátható rendszert.

A VERSES cég tanulmánya szerint a MI fejlődésének jelenlegi szakaszában a rendszerszintű MI válaszai a képzés során kialakított valószínűségekre alapoznak. A következő fázisban a MI terveket készít és tapasztalatai alapján finomítja a világról alkotott képét. A harmadik szakaszban "együttérzővé" válik, felismerve mások és saját lelkiállapotát is, míg a negyedik szakaszban egy planetáris szuperintelligencia alakul ki.

Asimov szavaival élve, minden döntésnél figyelembe kell venni a jövőbeli világot is, ami azt jelenti, hogy sci-fi módon kell gondolkodnunk.

Az adatvédelem terén azonban új kihívásokkal kell szembenéznünk. A Microsoft által támogatott OpenAI ChatGPT-je, amely 2022 végén indította el a GenAI boomot, adatvédelmi panaszok kereszttüzébe került. Az osztrák NOYB non-profit érdekvédelmi csoport szerint a ChatGPT megsértette az uniós adatvédelmi szabályokat, mivel helytelen információkat szolgáltatott, és nem javította ki azokat, amikor egy közszereplő a születésnapjáról érdeklődött.

A NOYB azt állítja, hogy az OpenAI elutasította az adatok helyesbítésére vagy törlésére irányuló kérést, és nem közölt információkat a feldolgozott adatok forrásairól vagy címzettjeiről. A csoport panaszt nyújtott be az osztrák adatvédelmi hatósághoz, és felhívta a figyelmet arra, hogy a jelenlegi technológiák nem felelnek meg az uniós jogi követelményeknek, amikor magánszemélyekre vonatkozó adatokat dolgoznak fel.

Ez az eset rávilágít arra, hogy a MI fejlődése során nemcsak az átláthatóságot és az elszámoltathatóságot kell szem előtt tartanunk, hanem az adatvédelmi szabályok betartását is. A technológiának követnie kell a jogi követelményeket, nem pedig fordítva.

Az Apple, amely a felhasználói igényekre reagálva, úgy döntött, hogy az iOS 18-ba integrálni szeretné a mesterséges intelligenciát, az OpenAI-val tárgyal az együttműködés lehetőségéről. Az iOS 18 várhatóan az operációs rendszer történetének egyik legfontosabb frissítése lesz, amely elsősorban a mesterséges intelligenciára fog koncentrálni. Az Apple, amely korábban már tárgyalt a Google-lal és az Anthropic-kal is, úgy tűnik, hogy az OpenAI-val való együttműködést részesíti előnyben, bár a végleges döntés még nem született meg. A WWDC 24 eseményen, amely júniusban kerül megrendezésre, várhatóan kiderül, hogy ki lesz az Apple MI-partnere.