Bemutatkozik a Lara
痴别锄é谤颈驳补锄驳补迟ó苍办, Marco Trombetti bemutatta a 尝补谤á迟, t?bb mint 15 évnyi gépi fordítási kutatásunk csúcspontját. 2011-ben útt?r? szerepet játszottunk az adaptív gépi fordításban. 2017 óta m?k?dtetjük a neurális gépi fordítási rendszerünket a Transformer modellel, amelyet fordításra találtak ki, és kés?bb a generatív MI alapjává vált. A ChatGPT megjelenése után a nagy nyelvi modellek nagyon népszer?ek lettek. Az embereket leny?g?zte a nyelvi folyékonyságuk és a nagy kontextusok kezelésére való képességük, ugyanakkor a pontatlanságuk csalódást keltett. Mi már akkor g?zer?vel azon dolgoztunk, hogy a nagy nyelvi modellek erejét a gépi fordítás pontosságával ?tv?zzük. Ma pedig büszkék vagyunk arra, hogy elértük ezt a mérf?ldk?vet, és a két képességet kombinálva megalkottuk a 尝补谤á迟, a világ legjobb fordítási MI-jét.
A Lara új szintet jelent a gépi fordításban, mert magyarázatot ad a d?ntéseihez, amihez a kontextus ismeretét és az érvelést használja, így professzionális min?ség? fordításokat képes létrehozni, amelyekben a felhasználók megbízhatnak. A világszinten elérhet? legnagyobb, legjobban gondozott, valós fordítási adatkészletre alapoz. Az NVIDIA-val való hosszú távú együttm?k?désünknek k?sz?nhet?en a 尝补谤á迟 1,2 millió GPU-órán keresztül tanítottuk az NVIDIA MI-platformján.
A Larával a vállalatok korábban elképzelhetetlen lokalizációs projekteket kezelhetnek. A fordítók és a t?bbnyelv? alkotók élvezni fogják a Lara képességeit a mindennapi munkájuk során, amelyekkel új szintre emelhetik a termelékenységüket és pontosságukat.
A Lara hibaaránya ezer szavanként mind?ssze 2,4 hiba. 2025-ben még nagyobb célt t?ztünk ki magunk elé: terveink szerint 20 millió GPU-órát használunk fel, hogy még k?zelebb kerüljünk a nyelvi szingularitáshoz.