日日操夜夜添-日日操影院-日日草夜夜操-日日干干-精品一区二区三区波多野结衣-精品一区二区三区高清免费不卡

公告:魔扣目錄網為廣大站長提供免費收錄網站服務,提交前請做好本站友鏈:【 網站目錄:http://www.ylptlb.cn 】, 免友鏈快審服務(50元/站),

點擊這里在線咨詢客服
新站提交
  • 網站:51998
  • 待審:31
  • 小程序:12
  • 文章:1030137
  • 會員:747

明敏 發自 凹非寺

量子位 | 公眾號 QbitAI

大模型訓練推理要用多少內存?

打開這個網頁一測便知,測量誤差小至0.5MB。

比如模型bert-base-case Int8估計占用413.18 MB內存,實際占用為413.68MB,相差0.5MB,誤差僅有0.1%

操作也很簡單,輸入模型名稱,選擇數據類型即可。

這就是HuggingFace Space上的最新火起來‍工具——Model Memory Calculator,模型內存測量器,在網頁端人人可體驗。

要知道,跑大模型最頭疼的問題莫過于:GPU內存夠嗎?

現在能先預估一波、誤差很小,讓不少人大呼“Great”!

實際推理內存建議多加20%

使用第一步,需要輸入模型的名稱。

目前支持搜索在HuggingFace Transformers庫和TIMM庫中的模型。

比如想要看GLM-6B的情況,可以輸入“THUDM/chatglm-6b”。

不過有一些模型會存在限制,需要獲取API token后才能開始計算,比如Llama-2-7b。

我們找了幾個大模型實測,可以看到當模型規模達到百億參數后,內存要求被直線拉高。

基礎版的BERT還是對GPU相當友好滴。

而在實際推理過程,EleutherAI發現需要在預測數據基礎上,預留20%的內存。具體舉例如下:

作者小哥熱衷開源項目

最后來介紹一下帶來這個項目的小哥Zach Mueller。

他本科畢業于西佛羅里達大學,主修軟件設計與開發,熱衷開源,在Github有1k粉絲。之前做過很多和Fast.ai框架有關的開源項目。

傳送門:

https://huggingface.co/spaces/hf-accelerate/model-memory-usage

— 

分享到:
標簽:模型
用戶無頭像

網友整理

注冊時間:

網站:5 個   小程序:0 個  文章:12 篇

  • 51998

    網站

  • 12

    小程序

  • 1030137

    文章

  • 747

    會員

趕快注冊賬號,推廣您的網站吧!
最新入駐小程序

數獨大挑戰2018-06-03

數獨一種數學游戲,玩家需要根據9

答題星2018-06-03

您可以通過答題星輕松地創建試卷

全階人生考試2018-06-03

各種考試題,題庫,初中,高中,大學四六

運動步數有氧達人2018-06-03

記錄運動步數,積累氧氣值。還可偷

每日養生app2018-06-03

每日養生,天天健康

體育訓練成績評定2018-06-03

通用課目體育訓練成績評定