污黄成人网站 入口在线观看_日本中文字幕不卡_日韩欧美一区二区在线观看_亚洲AV无码AV日韩AV网站_91热久久免费频精品18韩国

 

微軟亞洲研究院公開新MoE庫 并在InfiniBand網(wǎng)絡(luò)相關(guān)節(jié)點(diǎn)進(jìn)行實(shí)驗(yàn)

發(fā)布時間:2021-11-29 15:33:40  |  來源:IT之家  

據(jù)微軟亞洲研究院發(fā)布,作為目前唯一被證明能夠?qū)⑸疃葘W(xué)模型擴(kuò)展到萬億以上參數(shù)的方法,MoE 能讓模型學(xué)更多信息。

并為計(jì)算機(jī)視覺、語音識別、自然語言處理和機(jī)器翻譯系統(tǒng)等提供支持。

日前微軟亞洲研究院發(fā)布了一個高能 MoE 庫 ——Tutel,并在 8x 80GB NVIDIA A100 和 8x 200Gbps 的 InfiniBand 網(wǎng)絡(luò)的 Azure NDm A100 v4 節(jié)點(diǎn)上進(jìn)行了實(shí)驗(yàn)。

讓我們來看一看,這個用于促進(jìn)大規(guī)模 DNN 模型開發(fā)的高能 MoE 庫有哪些優(yōu)勢?其表現(xiàn)又如何?

混合專家(Mixture-of-Experts,簡稱 MoE)是一種深度學(xué)模型架構(gòu),其計(jì)算成本與參數(shù)的數(shù)量呈次線關(guān)系,因此更容易擴(kuò)展。

MoE 是目前唯一被證明能夠?qū)⑸疃葘W(xué)模型擴(kuò)展到萬億以上參數(shù)的方法,它能讓模型學(xué)更多信息。

并為計(jì)算機(jī)視覺、語音識別、自然語言處理和機(jī)器翻譯系統(tǒng)等提供支持,從而以全新的方式為人類社會提供幫助。

微軟亞洲研究院發(fā)布了一個用于促進(jìn)大規(guī)模 DNN 模型開發(fā)的高能 MoE 庫 ——Tutel,并針對已普遍使用的新 Azure NDm A100 v4 系列進(jìn)行了高度優(yōu)化。

關(guān)鍵詞: 微軟 MoE庫 Tutel

 

關(guān)于我們 - 聯(lián)系我們 - 版權(quán)聲明 - 招聘信息 - 友鏈交換

2014-2020  電腦商網(wǎng) 版權(quán)所有. All Rights Reserved.

備案號:京ICP備2022022245號-1 未經(jīng)過本站允許,請勿將本站內(nèi)容傳播或復(fù)制.

聯(lián)系我們:435 226 40@qq.com