OpenAI在近日舉行的“OpenAI 12天”活動(dòng)中,迎來(lái)了第9天的重大更新。公司宣布,其先進(jìn)的“推理”人工智能模型o1已正式通過(guò)API向部分精選開發(fā)者開放。同時(shí),OpenAI還推出了一系列更新,包括GPT-4o、實(shí)時(shí)API以及微調(diào)API的改進(jìn)版本。
此次首批獲得o1 API訪問(wèn)權(quán)限的開發(fā)者,是OpenAI平臺(tái)上的“第五級(jí)”用戶。這一級(jí)別要求開發(fā)者在平臺(tái)上累計(jì)消費(fèi)至少1000美元(約合7285元人民幣),并且賬戶需活躍超過(guò)30天。o1 API取代了先前的o1-preview模型,為用戶提供了更穩(wěn)定和強(qiáng)大的推理能力。
o1模型在人工智能領(lǐng)域獨(dú)樹一幟,其強(qiáng)大的自我事實(shí)核查能力有效避免了常見(jiàn)錯(cuò)誤,但這也帶來(lái)了更高的計(jì)算成本和更長(zhǎng)的響應(yīng)時(shí)間。OpenAI對(duì)o1的定價(jià)策略為每分析75萬(wàn)字收費(fèi)15美元,每生成75萬(wàn)字收費(fèi)60美元,這一價(jià)格是其最新“非推理”模型GPT-4o的六倍。盡管價(jià)格不菲,但o1所提供的精準(zhǔn)度和可靠性,對(duì)許多開發(fā)者來(lái)說(shuō)仍然具有極大的吸引力。
與o1-preview相比,o1 API在功能上有了顯著的提升。新增的函數(shù)調(diào)用功能允許模型連接到外部數(shù)據(jù)源,開發(fā)者消息功能則讓開發(fā)者能夠指導(dǎo)模型的語(yǔ)氣和風(fēng)格。o1還支持圖像分析,并提供了一個(gè)名為“reasoning_effort”的API參數(shù),允許開發(fā)者控制模型在回答問(wèn)題前的思考時(shí)間。這些功能使得o1在可定制性方面達(dá)到了新的高度。
OpenAI透露,此次推出的o1是“新近經(jīng)過(guò)后訓(xùn)練”的版本,版本號(hào)為“o1-2024-12-17”。與兩周前在ChatGPT中發(fā)布的o1模型相比,新版本在多個(gè)方面進(jìn)行了改進(jìn),以更好地滿足用戶需求。然而,OpenAI并未透露具體的改進(jìn)細(xì)節(jié)。OpenAI表示,他們正在逐步擴(kuò)大訪問(wèn)權(quán)限,并努力覆蓋更多用戶級(jí)別,同時(shí)提高速率限制。
除了o1模型外,OpenAI還發(fā)布了GPT-4o和GPT-4o mini模型的新版本,作為其實(shí)時(shí)API的一部分。實(shí)時(shí)API旨在構(gòu)建具有低延遲、人工智能生成語(yǔ)音響應(yīng)的應(yīng)用程序。新版本模型在數(shù)據(jù)效率和可靠性方面有了顯著提升,同時(shí)降低了使用成本。實(shí)時(shí)API目前仍處于測(cè)試階段,但已經(jīng)獲得了多項(xiàng)新功能,如并發(fā)的帶外響應(yīng)和WebRTC支持。
OpenAI的WebRTC集成使得即使在網(wǎng)絡(luò)質(zhì)量不穩(wěn)定的情況下,也能實(shí)現(xiàn)流暢且響應(yīng)迅速的交互。這一功能對(duì)于構(gòu)建基于瀏覽器的客戶端、智能手機(jī)和物聯(lián)網(wǎng)設(shè)備的實(shí)時(shí)語(yǔ)音應(yīng)用程序具有重要意義。OpenAI在12月初聘請(qǐng)了WebRTC的創(chuàng)建者Justin Uberti,進(jìn)一步強(qiáng)化了其在實(shí)時(shí)通信技術(shù)方面的實(shí)力。
最后,OpenAI還為其微調(diào)API引入了偏好微調(diào)功能。這一功能通過(guò)比較模型響應(yīng)的配對(duì),來(lái)教導(dǎo)模型區(qū)分對(duì)問(wèn)題的首選答案和“非首選”答案。OpenAI還推出了針對(duì)Go和Java的官方軟件開發(fā)工具包“早期訪問(wèn)”測(cè)試版,為開發(fā)者提供了更多的選擇和便利。