日日操夜夜添-日日操影院-日日草夜夜操-日日干干-精品一区二区三区波多野结衣-精品一区二区三区高清免费不卡

公告:魔扣目錄網(wǎng)為廣大站長提供免費收錄網(wǎng)站服務(wù),提交前請做好本站友鏈:【 網(wǎng)站目錄:http://www.ylptlb.cn 】, 免友鏈快審服務(wù)(50元/站),

點擊這里在線咨詢客服
新站提交
  • 網(wǎng)站:51998
  • 待審:31
  • 小程序:12
  • 文章:1030137
  • 會員:747

今天給大家分享一個開源的大語言模型ChatGLM-6B。

圖片

十幾天的時間,就收獲了近 1w 個 star。

ChatGLM-6B 是一個開源的、支持中英雙語的對話語言模型,基于 General Language Model (GLM) 架構(gòu),具有 62 億參數(shù)。結(jié)合模型量化技術(shù),用戶可以在消費級的顯卡上進行本地部署(INT4 量化級別下最低只需 6GB 顯存)。ChatGLM-6B 使用了和 ChatGPT 相似的技術(shù),針對中文問答和對話進行了優(yōu)化。經(jīng)過約 1T 標(biāo)識符的中英雙語訓(xùn)練,輔以監(jiān)督微調(diào)、反饋自助、人類反饋強化學(xué)習(xí)等技術(shù)的加持,62 億參數(shù)的 ChatGLM-6B 已經(jīng)能生成相當(dāng)符合人類偏好的回答。

大家都可以裝在自己的電腦上運行下試試。獨顯最小顯存6G,CPU電腦也可以跑,但很慢。

項目目前只開源了模型和推理代碼,并沒有開源模型的訓(xùn)練。

運行項目,只需兩個

第一步,下載源碼

git clone https://github.com/THUDM/ChatGLM-6B.git
  • 1.

執(zhí)行pip install -r requirements.txt 安裝依賴

第二步,運行項目

Python/ target=_blank class=infotextkey>Python web_demo.py
  • 1.

執(zhí)行后,會自動下載模型文件,大概 4G 左右。

如果是GPU?運行,默認(rèn)情況下, 模型運行顯存至少 13G,如果顯存不夠,可以修改下 web_demo.py

tokenizer = AutoTokenizer.from_pretrained("THUDM/chatglm-6b", trust_remote_code=True)
model = AutoModel.from_pretrained("THUDM/chatglm-6b", trust_remote_code=True).half().cuda()
  • 1.
  • 2.

將上述代碼的THUDM/chatglm-6b?改為THUDM/chatglm-6b-int4?,即:改用 int4 量化后的模型,只要是顯存大于6g就可以順利運行。

如果報 CPU 內(nèi)存不足,把其他軟件關(guān)一關(guān),尤其是瀏覽器。

運行成功后, 會自動跳轉(zhuǎn)瀏覽器頁面,這時候就可以像ChatGPT一樣使用了。

下面是我本地運行的結(jié)果,大家可以看看與ChatGPT的差異

圖片

自我認(rèn)知

圖片

寫提綱

圖片

寫郵件

圖片

寫代碼

圖片

角色扮演

項目運行還是很簡單的,大家可以跑跑試試。

如果大家覺得本文對你有用就點個 在看 鼓勵一下吧,我會持續(xù)分享優(yōu)秀的 Python+AI 項目。

分享到:
標(biāo)簽:ChatGPT
用戶無頭像

網(wǎng)友整理

注冊時間:

網(wǎng)站:5 個   小程序:0 個  文章:12 篇

  • 51998

    網(wǎng)站

  • 12

    小程序

  • 1030137

    文章

  • 747

    會員

趕快注冊賬號,推廣您的網(wǎng)站吧!
最新入駐小程序

數(shù)獨大挑戰(zhàn)2018-06-03

數(shù)獨一種數(shù)學(xué)游戲,玩家需要根據(jù)9

答題星2018-06-03

您可以通過答題星輕松地創(chuàng)建試卷

全階人生考試2018-06-03

各種考試題,題庫,初中,高中,大學(xué)四六

運動步數(shù)有氧達人2018-06-03

記錄運動步數(shù),積累氧氣值。還可偷

每日養(yǎng)生app2018-06-03

每日養(yǎng)生,天天健康

體育訓(xùn)練成績評定2018-06-03

通用課目體育訓(xùn)練成績評定