譯者 | 李睿
如今,很多企業(yè)高管都將人工智能視為未來發(fā)展方向,許多技術(shù)領(lǐng)導(dǎo)者也將ChatGPT視為人工智能的代名詞。但是AI target=_blank class=infotextkey>OpenAI的旗艦產(chǎn)品ChatGPT并不是唯一的大型語言模型——對(duì)于一些軟件項(xiàng)目或領(lǐng)域來說,ChatGPT甚至可能不是一個(gè)最好的選擇。幾乎每天都有新的競(jìng)爭(zhēng)者出現(xiàn)。似乎每家科技公司都想構(gòu)建下一代人工智能工具,這些工具帶來的好處和壞處取決于人們?nèi)绾螒?yīng)用。
一些大型語言模型比其他一些模型好嗎?也許。但它們都有缺陷、怪癖、故障和弱點(diǎn),使用的時(shí)間越長(zhǎng),這些缺陷就越明顯。生成式人工智能乍一看似乎很神奇,但隨著時(shí)間的推移,其怪異和不可預(yù)測(cè)的一面開始顯現(xiàn)。
衡量大型語言模型
由于大型語言模型的范圍和使用方式,科學(xué)地衡量生成式人工智能回答問題的質(zhì)量是很困難的。數(shù)據(jù)科學(xué)家可以輸入數(shù)千甚至數(shù)百萬個(gè)測(cè)試問題并評(píng)估答案,但如果測(cè)試集只關(guān)注一種類型的問題,那么其輸出結(jié)果將會(huì)受到限制。咨詢像Hugging Face這樣的Open LLM排行榜類似的資源很有趣,但不一定準(zhǔn)確。
如果說找到一種精確的方法來對(duì)大型語言模型進(jìn)行衡量很困難,那么在它們之間切換變得越來越容易了。像OpenLLM或FastChat這樣的項(xiàng)目使各種大型語言模型的連接變得更簡(jiǎn)單,盡管它們有不同的API和接口。開發(fā)人員可以將這些整合在一起,有時(shí)甚至可以并行運(yùn)行這些模型。
構(gòu)建大型語言模型的一個(gè)主要問題是成本。雖然人們很感興趣并且投資得到爆炸式增長(zhǎng),但構(gòu)建一個(gè)大型語言模型可能需要數(shù)月甚至數(shù)年的時(shí)間。開發(fā)團(tuán)隊(duì)首先收集訓(xùn)練數(shù)據(jù),然后采用成本高昂的硬件消耗大量電力推送數(shù)據(jù)。最后他們制作了大型語言模型,而如何盈利以及維持這項(xiàng)工作的最佳方式是一個(gè)不斷演變的問題。
一些企業(yè)正在嘗試開源他們開發(fā)的大型語言模型,而另一些企業(yè)則依賴具有自己計(jì)費(fèi)模型的服務(wù)。開源大型語言模型可能是一份真正的禮物,但前提是能夠處理部署模型并保持其運(yùn)行的工作。
以下是非ChatGPT的14種大型語言模型。它們可能是用戶運(yùn)營(yíng)項(xiàng)目所需要的大型語言模型,也可能不是。唯一知道的方法就是把提示發(fā)給它們,并仔細(xì)評(píng)估結(jié)果。
1.Llama
Facebook(如今更名為Meta)創(chuàng)建了這個(gè)基礎(chǔ)大型語言模型,然后將其發(fā)布,作為其聲明的“開放科學(xué)承諾”的一部分。任何人都可以下載Llama,并將其作為為特定應(yīng)用創(chuàng)建更精細(xì)調(diào)整模型的基礎(chǔ)(Alpaca和Vicuna都是在Llama的基礎(chǔ)上構(gòu)建的)。該模型還有四種不同的規(guī)模。只有70億個(gè)參數(shù)的較小版本在不太可能的地方使用。一名開發(fā)人員甚至聲稱Llama可以運(yùn)行在只有4GB內(nèi)存的Raspberry Pi上。
2.Alpaca
斯坦福大學(xué)的幾位研究人員采用了Meta公司的Llama 7B,采用一組模仿ChatGPT等指令遵循模型的提示對(duì)其進(jìn)行訓(xùn)練。這一微調(diào)產(chǎn)生了Alpaca 7B,這個(gè)大型語言模型將Llama LLM中編碼的知識(shí)開放為人們可以通過提問和給出指令來獲取的知識(shí)。據(jù)稱,其輕量級(jí)大型語言模型可以在價(jià)值不到600美元的硬件上運(yùn)行。
Alpaca 7B的創(chuàng)建者正在分發(fā)訓(xùn)練集和構(gòu)建它的代碼,任何人都可以復(fù)制模型或從不同的集合創(chuàng)建新的內(nèi)容。
3.Vicuna
Llama的另一個(gè)后代是來自LMSYS.org的Vicuna。Vicuna團(tuán)隊(duì)從ShareGPT中收集了7萬個(gè)不同對(duì)話的訓(xùn)練集,并特別注意創(chuàng)建多輪互動(dòng)和指令跟隨功能。這個(gè)大型語言模型有Vicuna-13b或Vicuna-7b兩種版本,是最具價(jià)格競(jìng)爭(zhēng)力的基本交互式聊天開放解決方案之一。
4.NodePad
并不是所有人都對(duì)大型語言模型生成“語言準(zhǔn)確”文本的方式所吸引。NodePad的創(chuàng)建者認(rèn)為,文本的質(zhì)量往往會(huì)分散用戶對(duì)潛在事實(shí)的雙重檢查。具有美觀的用戶界面的大型語言模型往往無意中美化結(jié)果,使用戶更難以預(yù)測(cè)這些問題。NodePad旨在培養(yǎng)探索和創(chuàng)意,而不是生成用戶幾乎不會(huì)瀏覽的精致寫作樣本。這個(gè)大型語言模型的結(jié)果顯示為節(jié)點(diǎn)和連接,就像人們?cè)谠S多“思維導(dǎo)圖工具”中看到的那樣,而不像憶經(jīng)完成的寫作。用戶可以利用該模型的百科知識(shí)來獲得很好的想法,而不會(huì)在演示中迷失方向。
5.Orca
第一代大型語言模型在規(guī)模上取得了成功,隨著時(shí)間的推移變得越來越大。來自微軟公司研究團(tuán)隊(duì)的Orca扭轉(zhuǎn)了這一趨勢(shì)。該模型僅使用130億個(gè)參數(shù),使其能夠在普通機(jī)器上運(yùn)行。Orca的開發(fā)人員通過增強(qiáng)訓(xùn)練算法來使用“解釋痕跡”、“逐步的思考過程”和“指令”來實(shí)現(xiàn)這一壯舉。Orca并沒有僅僅要求人工智能從原始材料中學(xué)習(xí),而是提供了一套專門用于教學(xué)的訓(xùn)練集。換句話說,就像人類一樣,人工智能在沒有深入研究的情況下學(xué)習(xí)得更快。最初的結(jié)果很有希望,微軟團(tuán)隊(duì)提供的基準(zhǔn)測(cè)試表明,該模型的性能與更大的模型一樣好。
6.Jasper
Jasper的創(chuàng)造者并不想創(chuàng)造一個(gè)聰明的多面手,他們想要的是一臺(tái)專注于創(chuàng)造內(nèi)容的聊天機(jī)器人。該系統(tǒng)提供了50多個(gè)模板,而不僅僅是一個(gè)開放式的聊天會(huì)話,這些模板是為特定任務(wù)設(shè)計(jì)的,例如為亞馬遜這樣的網(wǎng)站制作房地產(chǎn)清單或編寫產(chǎn)品功能。其付費(fèi)版本專門針對(duì)那些希望創(chuàng)建具有一致基調(diào)的營(yíng)銷文案的企業(yè)提供服務(wù)。
7.Claude
Anthropic把Claude塑造成一個(gè)樂于助人的助手,它可以處理企業(yè)的許多基于文本的業(yè)務(wù)(從研究到客戶服務(wù)),輸入提示,輸出答案。Anthropic允許長(zhǎng)提示來鼓勵(lì)更復(fù)雜的指令,讓用戶對(duì)結(jié)果有更多的控制權(quán)。Anthropic目前提供兩個(gè)版本:一個(gè)是名為Claude-v1的完整模型,另一個(gè)是更便宜的簡(jiǎn)化模型Claude Instant,后者的價(jià)格要便宜得多。第一種適用于需要更復(fù)雜、結(jié)構(gòu)化推理的工作,而后者更快、更好地適用于分類和調(diào)節(jié)等簡(jiǎn)單任務(wù)。
8.Cerebras
當(dāng)專用硬件和通用模型共同發(fā)展時(shí),最終可以得到一個(gè)非常快速和有效的解決方案。Cerebras公司為那些想在本地運(yùn)行它的用戶提供了從小(1.11億個(gè)參數(shù))到大(130億個(gè)參數(shù))的各種Hugging Face大型語言模型。然而,許多人想要使用云計(jì)算服務(wù),這些服務(wù)運(yùn)行在Cerebras公司自己的集成處理器上,該處理器針對(duì)大型訓(xùn)練集進(jìn)行了優(yōu)化。
9.Falcon
全尺寸Falcon-40b和較小的Falcon-7b是由阿聯(lián)酋的技術(shù)創(chuàng)新研究所(TII)建造的。他們?cè)赗efinedWeb上的大量通用示例上訓(xùn)練了Falcon模型,重點(diǎn)是提高推理能力。然后,他們將其與Apache 2.0一起發(fā)布,使其成為可用于實(shí)驗(yàn)的最開放和不受限制的大型語言模型之一。
10.ImageBind
許多人認(rèn)為Meta公司是一家主導(dǎo)社交媒體的大公司,但該公司也是一家開源軟件開發(fā)商。隨著人們對(duì)人工智能的興趣日益濃厚,該公司開始分享自己的許多創(chuàng)新成果也就不足為奇了。ImageBind是一個(gè)旨在展示人工智能如何同時(shí)創(chuàng)建多種不同類型數(shù)據(jù)的項(xiàng)目;在這種情況下,包括文本、音頻和視頻。換句話說,如果允許的話,生成人工智能可以將整個(gè)想象的世界整合在一起。
11.Gorilla
人們可能聽說過很多關(guān)于使用生成式人工智能編寫代碼的事情。其結(jié)果往往表面上令人印象深刻,但仔細(xì)檢查就會(huì)發(fā)現(xiàn)存在嚴(yán)重缺陷。其語法可能是正確的,但是API調(diào)用都是錯(cuò)誤的,或者它們甚至可能指向一個(gè)不存在的函數(shù)。Gorilla是一個(gè)大型語言模型,它的設(shè)計(jì)是為了更好地處理編程接口。它的創(chuàng)建者從Llama開始,然后對(duì)其進(jìn)行微調(diào),重點(diǎn)關(guān)注直接從文檔中截取的更深層次的編程細(xì)節(jié)。Gorilla的團(tuán)隊(duì)還提供了自己的以API為中心的測(cè)試成功基準(zhǔn)集。對(duì)于希望依靠人工智能進(jìn)行編碼協(xié)助的程序員來說,這是一個(gè)重要的補(bǔ)充。
12.Ora.ai
Ora.ai是一個(gè)允許用戶創(chuàng)建針對(duì)特定任務(wù)進(jìn)行優(yōu)化的目標(biāo)聊天機(jī)器人的系統(tǒng)。LibrarianGPT嘗試用一本書中的段落來回答任何問題。例如,聊天機(jī)器人可以從Carl Saga教授的所有著作中汲取靈感。人們可以創(chuàng)建自己的聊天機(jī)器人,也可以使用其他人已經(jīng)創(chuàng)建的數(shù)百個(gè)聊天機(jī)器人中的一個(gè)。
13.AgentGPT
另一個(gè)將應(yīng)用程序所需的所有代碼整合在一起的工具是AgentGPT。它的設(shè)計(jì)目的是創(chuàng)建代理,這些代理可以被派去處理諸如計(jì)劃度假或編寫某種游戲代碼之類的工作。大部分技術(shù)棧的源代碼都可以在GPL3.0下獲得。還有一個(gè)正在運(yùn)行的版本作為服務(wù)提供。
14.FrugalGPT
FrugalGPT 并不是一個(gè)不同的模型,而是一種尋找價(jià)格更低的模型來回答特定問題的謹(jǐn)慎策略。FrugalGPT的研究人員認(rèn)識(shí)到,回答許多問題不需要更大、更昂貴的模型。他們的算法從最簡(jiǎn)單的開始,在一系列大型語言模型中逐級(jí)移動(dòng),直到找到一個(gè)更好的答案。研究人員的實(shí)驗(yàn)表明,這種謹(jǐn)慎的方法可以節(jié)省98%的成本,因?yàn)樵S多問題實(shí)際上并不需要采用復(fù)雜的模型。
原文標(biāo)題:14 LLMs that aren't ChatGPT,作者:Peter Wayner