系統(tǒng)之家 - 系統(tǒng)光盤下載網(wǎng)站!

當(dāng)前位置:系統(tǒng)之家 > IT快訊 > 詳細(xì)頁面

2毫秒!NVIDIA刷新實時對話AI訓(xùn)練/推理用時記錄

編輯:jiayuan 2019-08-14 09:42:26 來源于:IT之家

  8月14日消息 和許多科技公司一樣,NVIDIA也在AI領(lǐng)域投入了大量的人力物力。而據(jù)外媒最新消息顯示,NVIDIA自研的對話式AI的GPU強化平臺不僅獲得了一些里程碑式的新突破,還刷新了一些業(yè)界記錄!感興趣的朋友,不妨來了解一下。

2毫秒!NVIDIA刷新實時對話AI訓(xùn)練/推理用時記錄

  據(jù)悉,NVIDIA公布的重大成果包括:BERT訓(xùn)練用時打破記錄,進入1小時關(guān)口,BERT是世界上最先進的人工智能語言模型之一,也被廣泛認(rèn)為是自然語言處理(NLP)標(biāo)桿的先進模型;NVIDIA的AI平臺僅僅需要53分鐘就能夠完成模型訓(xùn)練,經(jīng)過訓(xùn)練的模型在短短2毫秒多一點的時間里(10毫秒在業(yè)內(nèi)被認(rèn)為是高水平線)就能夠成功地做出推理(即利用通過訓(xùn)練學(xué)習(xí)到的能力得出結(jié)果)——又一個記錄。

  當(dāng)然,NVIDIA的這些突破不僅僅是吹噓的資本——這些進步可為任何使用NLP對話式人工智能和GPU硬件的人提供切實的好處。NVIDIA在它的其中一個SuperPOD系統(tǒng)上打破了訓(xùn)練時間記錄,該SuperPOD系統(tǒng)由運行1472個V100 GPU的92個NVIDIA DGX-2H系統(tǒng)組成;在運行NVIDIA TensorRT的NVIDIA T4 GPU上完成推理過程。NVIDIA TensorRT在性能上超出高度優(yōu)化的CPU許多個量級。不過,該公司將公開BERT訓(xùn)練代碼和經(jīng)過TensorRT優(yōu)化的BERT樣本,讓所有人都可以通過GitHub利用。

  此外,NVIDIA的研究部門還建立并訓(xùn)練了有史以來最大的一個基于“Transformer”的語言模型,這也是BERT的技術(shù)基礎(chǔ),該定制模型包含的參數(shù)多達(dá)83億個,規(guī)模是當(dāng)前最大的核心BERT模型BERT-Large的24倍

  值得一提的是,這個被命名為“Megatron”的模型還對外提供了用于訓(xùn)練這個模型的PyTorch代碼,因而其他人能夠自行訓(xùn)練出類似的基于“Transformer”的大型語言模型!就是不知道,NVIDIA接下來在AI領(lǐng)域中又會有哪些新動作。

標(biāo)簽 NVIDIA ai

發(fā)表評論

0

沒有更多評論了

評論就這些咯,讓大家也知道你的獨特見解

立即評論

以上留言僅代表用戶個人觀點,不代表系統(tǒng)之家立場

官方交流群 軟件收錄