Az Apple új mesterséges intelligencia fejlesztése

Az Apple mérnökei áttörést értek el a mesterséges intelligencia területén, amelynek köszönhetően a vállalat hangalapú digitális asszisztense, Siri, minden eddiginél jobban képes lehet értelmezni a képernyőn megjelenő tartalmakat.

Az MacRumors beszámolója szerint az Apple mérnökei a Reference Resolution as Language Modeling (ReALM) nevű megoldással új megközelítést alkalmaznak az emberi beszéd értelmezésében. A referenciák feloldása, amely a természetes nyelv megértésének fontos része, mostantól a nyelvi modellezési problémák közé tartozik, ami lehetővé teszi, hogy a digitális asszisztensek is megértsék a beszélgetés során használt névmásokat és egyéb utalásokat.

A ReALM technológia a szöveges megjelenítés segítségével képes rekonstruálni a kijelzőn látható elemeket, így a rendszer jobban megérti a felhasználó által említett tartalmakat és azok kontextusát. A kutatók szerint a ReALM finomhangolásával még az olyan fejlett nyelvi modellek teljesítményét is felülmúlhatják, mint amilyen az OpenAI GPT-4-es modellje.

Az Apple célja, hogy a ReALM segítségével radikálisan javítsa a hangvezérelhető digitális asszisztensek teljesítményét, így a Siri sokkal intuitívabb és természetesebb párbeszédet folytathat a felhasználókkal. A vállalat éves fejlesztői konferenciáját, a WWDC-t június 10-től 14-ig rendezik meg, ahol a mesterséges intelligencia lesz az egyik fő téma.