Esittelyss? Lara
Toimitusjohtajamme Marco Trombetti esitteli Laran, joka on yli 15 vuoden konek??nn?stutkimuksen huipentuma. Vuonna 2011 olimme edell?k?vij?it? mukautuvassa konek??nn?ksess?. Vuodesta 2017 l?htien olemme k?ytt?neet neuroverkkoihin perustuvaa konek??nn?sj?rjestelm??mme Transformer-mallin kanssa, joka keksittiin k??nt?mist? varten ja josta tuli my?hemmin perusta generatiiviselle teko?lylle. Kun suuret kielimallit saivat suosiota ChatGPT:n julkaisun j?lkeen, monet h?mm?steliv?t niiden sujuvuutta ja kyky? k?sitell? laajoja asiayhteyksi?, mutta samalla he olivat turhautuneita niiden tarkkuuden puutteesta. Teimme jo silloin kovasti t?it? yhdist??ksemme suurten kielimallien voiman konek??nt?misen tarkkuuteen. Nyt olemme ylpeit? siit?, ett? olemme saavuttaneet t?m?n virstanpylv??n yhdist?m?ll? molemmat Laraan, maailman parhaaseen k??nn?steko?lyyn.
Lara m??rittelee konek??nn?ksen uudelleen selitt?m?ll? valintansa, hy?dynt?m?ll? kontekstuaalista ymm?rryst? ja p??ttely? tuottaakseen ammattimaisia k??nn?ksi?, joihin k?ytt?j?t voivat luottaa. Se on koulutettu suurimman, kuratoiduimman reaalimaailman k??nn?sten tietoaineiston pohjalta, joka on maailmanlaajuisesti saatavilla. Lara koulutettiin NVIDIA AI -alustalla k?ytt?m?ll? 1,2 miljoonaa GPU-tuntia pitk?aikaisen NVIDIA-yhteisty?mme ansiosta.
Laran avulla yritykset voivat tarttua lokalisointiprojekteihin, joita ei aiemmin voitu ajatellakaan. K??nt?j?t ja monikieliset tekij?t nauttivat Larasta p?ivitt?isess? ty?ss??n ja saavuttavat uuden tuottavuuden ja tarkkuuden tason.
Laran virhekeskiarvo on vain 2,4/1?000 sanaa. Vuonna 2025 pyrimme viel? parempaan: aiomme k?ytt?? 20 miljoonaa GPU-tuntia p??st?ksemme viel? tarkempaan lopputulokseen.