Wir stellen vor: Lara
Unser CEO Marco Trombetti hat Lara vorgestellt, den H?hepunkt von über 15?Jahren Forschung im Bereich der maschinellen ?bersetzung. Im Jahr 2011 waren wir Pioniere der adaptiven MT. Seit 2017 betreiben wir unser neuronales MT-System mit dem Transformer-Modell, das ursprünglich für ?bersetzungen entwickelt wurde und sp?ter zur Grundlage der generativen KI wurde. Als gro?e Sprachmodelle nach der Ver?ffentlichung von ChatGPT an Popularit?t gewannen, waren viele beeindruckt von ihrer Sprachgewandtheit und der F?higkeit, gro?e Kontexte zu verarbeiten. Gleichzeitig waren sie jedoch auch frustriert über die mangelnde Genauigkeit dieser Modelle. Wir arbeiteten bereits unermüdlich daran, die Leistungsf?higkeit gro?er Sprachmodelle mit der Genauigkeit der maschinellen ?bersetzung zu kombinieren. Heute sind wir stolz darauf, diesen Meilenstein erreicht zu haben, indem wir beide mit Lara, der weltweit besten ?bersetzungs-KI, kombiniert haben.
Lara definiert die maschinelle ?bersetzung neu, indem sie ihre Entscheidungen erl?utert und kontextuelles Verst?ndnis sowie logische Argumentation nutzt, um professionelle ?bersetzungen zu liefern, denen die Nutzer vertrauen k?nnen. Sie wurde mit dem gr??ten und sorgf?ltigst kuratierten Datensatz realer ?bersetzungen trainiert, der weltweit verfügbar ist. Dank unserer langfristigen Zusammenarbeit mit NVIDIA wurde Lara auf der NVIDIA-KI-Plattform mit 1,2?Millionen GPU-Stunden geschult.
Mit Lara k?nnen Unternehmen bisher unvorstellbare Lokalisierungsprojekte angehen. ?bersetzer und mehrsprachige Kreative werden Lara bei ihrer t?glichen Arbeit zu sch?tzen wissen und ein neues Ma? an Produktivit?t und Genauigkeit erreichen.
Laras Fehlerquote liegt bei lediglich 2,4?pro tausend W?rter. Im Jahr 2025 wollen wir noch h?her hinaus: Wir planen 20?Millionen GPU-Stunden zu nutzen, um der Sprachsingularit?t weiter n?herzukommen.