微軟剛剛宣布了自家翻譯服務的一項更新,為用戶引入了新的機器學習技術(shù),有望顯著改善多語種之間的翻譯質(zhì)量。 具體說來是,基于“備用專家混合”(spare Mixture of Experts)方案的 Project Z-Code 項目,可讓新模型在盲測評估中的得分較以往提升 3~15% 。
(來自:Microsoft Research Blog )
據(jù)悉,Z-code 是微軟更廣泛的 XYZ-Code 計劃的一部分,著眼于結(jié)合多種語言的文本、視覺和音頻模型,以創(chuàng)建更強大、實用的 AI 系統(tǒng)。
雖然“專家組合”并不是一套新穎的技術(shù),但它在翻譯環(huán)境中還是相當實用。該系統(tǒng)的核心,本質(zhì)上是將任務分解為多個子任務,然后將之委托給更小、更專業(yè)的所謂“專家”模型。
Z-code MoE 模型示例:從英語翻譯成法語時,可為每個輸入動態(tài)選擇其參數(shù)的子集。
各個模型會根據(jù)自身特性來預測、并決定將哪個任務委派給哪個專家,從而極大地簡化了開發(fā)思路。對于普通用戶來說,你可將之視作包含多個更專業(yè)模型的大模型集合。
微軟技術(shù)研究員兼 Azure AI 首席技術(shù)官黃學東表示:借助 Z-code,我們確實取得了驚人的進步。我們正在利用遷移學習和多任務學習,以從單語言和多語種數(shù)據(jù)中創(chuàng)建一個極具質(zhì)量和性能的最佳組合。最終帶來一個最先進的語言模型,并為客戶帶來高效的體驗。
結(jié)果是,我們看到了一套全新的系統(tǒng),現(xiàn)能夠直接在 10 種語言之間進行翻譯,從而消除了對多個系統(tǒng)的需求。
【來源:cnBeta.COM】