最美情侣中文字幕电影,在线麻豆精品传媒,在线网站高清黄,久久黄色视频

歡迎光臨散文網(wǎng) 會員登陸 & 注冊

4090在深度學習訓練上的性能表現(xiàn)數(shù)據(jù)分享

2023-06-29 18:05 作者:云客數(shù)字服務器工廠  | 我要投稿

我們對訓練?Transformer 模型在各種 GPU(包括單 GPU、多 GPU 和多機器)上可以實現(xiàn)的真實Tera FLOPS進行了基準測試。它可以幫助您估計訓練大型 Transformer 模型需要多少機器時間。

實際性能取決于多種因素,包括硬件、冷卻、CUDA版本、變壓器模型、超參數(shù)(例如批量大?。┖蛯崿F(xiàn)。我們在我們自己的服務器平臺上面運行了并整理了相應的數(shù)據(jù)。

測試平臺:

平臺:超微SYS-420GP-TNR(3代Xeon平臺)

顯卡:單渦輪?4090

cpu:Intel Xeon Gold 6348

測量各種微基準測試的TFLOPS。測試方法:李沐老師micro-benchmarkings

測試結(jié)果:

測試說明:

1.矩陣計算速度

transformer的核心操作是矩陣乘法,通過測試矩陣計算的tflops可以得到硬件的計算上限。

可以看出單精度提升明顯,因為Tensor Cores的緣故,半精度性能相比單精度有很大的提升,半精度下為161 TFLPOPS是3090Ti的。

2.向量乘法速度、帶寬

深度學習訓練中,帶寬會限制你的訓練速度。因為網(wǎng)絡訓練過程中的激活函數(shù)會做的事情計算步驟類似向量乘法,這種操作會很慢,從而減慢訓練速度。

可以看出4090向量乘法操作大約是3090ti的四倍,吞吐量提升很多,盡管位寬一樣。

3.Bert Layer Forward/Forward+Backward速度

從上面的測試數(shù)據(jù)可以看出,越簡單的代碼,提高越接近2倍的理論值,對于一些復雜的代碼,因為有一些不同的附加操作,提高的值會有所差異。

GPT的提高就比BERT相對來說小一些,因為它包括了一個掩碼的計算,所以這個使得產(chǎn)生了非常強的性能損失,相比bert。

總結(jié):

從矩陣計算硬件的計算上限來說,4090在單精度上提升明顯,因為Tensor Cores的緣故,半精度提升2倍, 4090bertForward操作的性能是 3090ti的1.77倍,F(xiàn)orward+Backward是3090ti的1.68倍。

想了解RTX4090整機的更多測試報告,歡迎私信我們~


4090在深度學習訓練上的性能表現(xiàn)數(shù)據(jù)分享的評論 (共 條)

分享到微博請遵守國家法律
南乐县| 安溪县| 合肥市| 重庆市| 林芝县| 泾阳县| 嫩江县| 墨竹工卡县| 乐东| 六枝特区| 军事| 大渡口区| 固镇县| SHOW| 十堰市| 东辽县| 绩溪县| 淮北市| 马公市| 兴山县| 鞍山市| 青浦区| 仲巴县| 浦东新区| 池州市| 长武县| 临潭县| 漳浦县| 丽水市| 奈曼旗| 原阳县| 富宁县| 石嘴山市| 云阳县| 炎陵县| 桦甸市| 焦作市| 新昌县| 东安县| 永德县| 临沂市|