【ITBEAR科技資訊】5月22日消息,近期大模型市場(chǎng)迎來了一波降價(jià)狂潮。其中,豆包通用模型推出了lite-4k/32k版本,以每千tokens推理輸入僅售0.3厘的價(jià)格引起了市場(chǎng)關(guān)注。同時(shí),通義千問的qwen-long模型也進(jìn)行了降價(jià),每千tokens推理輸入售價(jià)為0.5厘。而百度文心則更大方,直接宣布其ERNIE Speed和ERNIE Lite模型免費(fèi)使用。
這場(chǎng)價(jià)格戰(zhàn)由豆包大模型率先發(fā)起,至今已有一個(gè)星期。科技博主闌夕對(duì)此發(fā)表評(píng)論稱,降價(jià)并非萬能,如果模型的吞吐量太小,再低的價(jià)格也難以吸引大量用戶。他強(qiáng)調(diào),只有把價(jià)格降低的同時(shí),保證足夠的吞吐量,才能真正滿足市場(chǎng)需求。
據(jù)ITBEAR科技資訊了解,豆包模型在定價(jià)策略上的一個(gè)重要舉措是將TPM(每分鐘token數(shù))提高到80萬,遠(yuǎn)高于同行的10萬到30萬tokens。此外,如果對(duì)話文本較小,其RPM(每分鐘請(qǐng)求數(shù))上限可達(dá)1萬,支持的并發(fā)量是同行的幾十倍。這一策略無疑給其他大模型帶來了壓力,也引發(fā)了市場(chǎng)對(duì)于其他大模型是否會(huì)跟進(jìn)降價(jià)的猜測(cè)。
闌夕還指出,大模型的算力成本主要在訓(xùn)練端,而推理端的成本實(shí)際上每年都有較大的優(yōu)化空間。然而,即使有這樣的優(yōu)化,算力成本也不可能降至零。因此,他認(rèn)為,只有價(jià)格足夠便宜,同時(shí)仍能保證盈利,才能推動(dòng)應(yīng)用和商用市場(chǎng)的規(guī)模增長(zhǎng)。這也是包括OpenAI在內(nèi)的主流大模型開發(fā)商的共同思路。
當(dāng)前大模型市場(chǎng)還處于共同做大蛋糕的階段。更多公司一起降低企業(yè)入局的成本門檻,將有助于實(shí)現(xiàn)市場(chǎng)的共贏。在這場(chǎng)降價(jià)狂潮中,我們期待看到更多創(chuàng)新和競(jìng)爭(zhēng),以推動(dòng)整個(gè)行業(yè)的發(fā)展。