GPT-4 API開(kāi)始大規(guī)模發(fā)放測(cè)試資格
編者按:本文來(lái)自微信公眾號(hào) “量子位”(ID:QbitAI),作者:夢(mèng)晨 克雷西,,創(chuàng)業(yè)邦經(jīng)授權(quán)轉(zhuǎn)載。
ChatGPT一夜間再次進(jìn)化,OpenAI一口氣推出大量更新!
(資料圖片)
最核心的是API新增函數(shù)調(diào)用(Function calling)能力,與網(wǎng)頁(yè)版的插件類(lèi)似,API也能使用外部工具了。
這個(gè)能力被交到開(kāi)發(fā)者手上,ChatGPT API原本不具備的能力也都能靠各種第三方服務(wù)解決了。
有人認(rèn)為,這是一個(gè)殺手級(jí)特性,也是自ChatGPT API發(fā)布以來(lái)最重要的更新。
另外這次關(guān)于ChatGPT API的更新每一個(gè)都很重磅,不僅能力加量,價(jià)格還更低了:
推出新版本gpt-4-0613和gpt-3.5-turbo-0613模型 gpt-3.5-turbo上下文長(zhǎng)度增漲400%,從4k增長(zhǎng)到16k gpt-3.5-turbo輸入token降價(jià)25% 最先進(jìn)embeddings model降價(jià)75% GPT-4 API大規(guī)模開(kāi)放,直到清空排隊(duì)列表為止消息到了國(guó)內(nèi),也有網(wǎng)友認(rèn)為這是國(guó)內(nèi)大模型面臨的重大挑戰(zhàn)。
何時(shí)使用工具,API自己決定根據(jù)OpenAI官方介紹,函數(shù)調(diào)用同時(shí)支持新版GPT-4和GPT-3.5。
開(kāi)發(fā)者只需要模型描述需要用到的函數(shù),何時(shí)調(diào)用哪個(gè)函數(shù)都是模型根據(jù)提示詞自己決定的,與ChatGPT調(diào)用插件的機(jī)制一樣。
對(duì)于具體使用方法,官方給出了三個(gè)例子:
第一,聊天機(jī)器人調(diào)用外部API執(zhí)行操作或回答問(wèn)題,如“給某人發(fā)郵件”或“今天的天氣如何?”。
第二,將自然語(yǔ)言轉(zhuǎn)換為API調(diào)用或數(shù)據(jù)庫(kù)查詢(xún),如“上個(gè)月有多少訂單?”會(huì)自動(dòng)生成SQL查詢(xún)語(yǔ)句。
第三,從文本中自動(dòng)提取結(jié)構(gòu)化數(shù)據(jù),如只需要定義好需要的“人名、生日、位置”,再給個(gè)網(wǎng)頁(yè)鏈接,就可以自動(dòng)提取一篇維基百科文章中提到的所有人物信息。
這一新功能讓廣大網(wǎng)友、特別是開(kāi)發(fā)者為之歡呼,表示有了它工作效率將大大提高。
更新版本,更低價(jià)格目前,新版本的模型已經(jīng)逐步開(kāi)始迭代。
最新版gpt-4-0613、gpt-3.5-turbo-0613與擴(kuò)充上下文長(zhǎng)度的gpt-4-32k-0613都支持函數(shù)調(diào)用。
gpt-3.5-turbo-16k不支持函數(shù)調(diào)用,提供4倍上下文長(zhǎng)度,意味著一次請(qǐng)求可支持約20頁(yè)文本。
舊模型也開(kāi)始逐步廢棄。
使用初始版本gpt-3.5-turbo、gpt-4的應(yīng)用將于6月27日自動(dòng)升級(jí)到新版本
需要更多時(shí)間過(guò)渡的開(kāi)發(fā)者也可以手動(dòng)指定繼續(xù)使用舊版本,但9月13日之后所有舊版本請(qǐng)求將徹底廢棄。
說(shuō)完這個(gè)時(shí)間線,我們?cè)賮?lái)看看價(jià)格。
升級(jí)之后,OpenAI不僅沒(méi)有讓產(chǎn)品漲價(jià),反而下調(diào)了價(jià)格。
首先是使用量最大的的gpt-3.5-turbo(4k token版)。
輸入token的價(jià)格降低了25%,現(xiàn)在0.0015美元每千token,也就是1美元66.6萬(wàn)token。
而輸出token每千token的價(jià)格則為0.002美元,也就是1美元50萬(wàn)token。
換算成英語(yǔ)文本的話,大致是1美元700頁(yè)。
嵌入模型(embeddings model)的價(jià)格更是大跳水,直接降低了75%。
每千token只需0.0001美金,也就是1美元一千萬(wàn)token。
此外,新推出的16K token版GPT3.5-Turbo提供了4K版本四倍的處理能力,但價(jià)格只有兩倍。
輸入及輸出token的價(jià)格分別是0.003和0.004美元每千token。
另外還有少數(shù)網(wǎng)友反應(yīng),當(dāng)月賬單直接從100到降到幾美分了,目前還不清楚具體什么情況。???????
最后,有需要的話也不要忘記去排隊(duì)GPT-4 API的測(cè)試資格。
(傳送門(mén)放在文末)
OpenAI捕“Chain”,微軟在后不少網(wǎng)友指出,OpenAI新出的“函數(shù)調(diào)用”基本就是Langchain里“Tools”的翻版。
Langchain是大模型領(lǐng)域最火的開(kāi)源開(kāi)發(fā)框架,能夠把各種大模型能力整合起來(lái)快速構(gòu)建應(yīng)用程序。
團(tuán)隊(duì)最近也剛剛獲得1000萬(wàn)美元種子輪融資。
雖然OpenAI的這次更新還不至于直接“殺死”Langchain這個(gè)創(chuàng)業(yè)項(xiàng)目。
但是開(kāi)發(fā)者們本來(lái)需要LangChain才能實(shí)現(xiàn)一些功能,現(xiàn)在確實(shí)不再需要了。
再看Langchain一方的反應(yīng),求生欲也確實(shí)很強(qiáng)。
在OpenAI官推發(fā)布更新的10分鐘之內(nèi),Langchain立馬宣布“已經(jīng)在做兼容工作了”。
并且不到一個(gè)小時(shí)就發(fā)布了新版本,支持官方新功能之外,還可以把開(kāi)發(fā)者已經(jīng)寫(xiě)好的tools轉(zhuǎn)換成OpenAI的functions。
一眾網(wǎng)友除了排隊(duì)感嘆這快得離譜的開(kāi)發(fā)速度,還思考起一個(gè)無(wú)法回避的問(wèn)題:
對(duì)此,OpenAI首席執(zhí)行官Sam Altman最近剛好做過(guò)一次表態(tài)。
在5月底Humanloop舉辦的交流會(huì)上,Altman曾表示:
現(xiàn)在看來(lái),開(kāi)發(fā)工具似乎不算在避免競(jìng)爭(zhēng)的范圍之內(nèi)。
而與OpenAI形成競(jìng)爭(zhēng)關(guān)系的除了創(chuàng)業(yè)公司,還有一個(gè)不可忽視的存在:
微軟,OpenAI最大金主,通過(guò)Azure云也對(duì)外提供OpenAI API服務(wù)。
就在最近,有開(kāi)發(fā)者反饋,從OpenAI官方API切換到微軟Azure版本后,性能顯著提升。
具體來(lái)說(shuō):
median latency從15秒減少到3秒 95th percentile latency從60秒減少到15秒 平均每秒處理的token數(shù)量增加了三倍,從8個(gè)增加到24個(gè)。再算上Azure給的一些折扣,甚至比原來(lái)還便宜了。
但微軟Azure的更新速度一般要比OpenAI慢上幾周。
開(kāi)發(fā)階段快速迭代用OpenAI,大規(guī)模部署轉(zhuǎn)去微軟Azure,你學(xué)到了么?
更新公告https://openai.com/blog/function-calling-and-other-api-updates
GPT-4 API排隊(duì)https://openai.com/waitlist/gpt-4-api
參考鏈接[1]https://news.ycombinator.com/item?id=36313348
[2]https://twitter.com/svpino/status/1668695130570903552
[3]https://weibo.com/1727858283/N5cjr0jBq
[4]https://twitter.com/LangChainAI/status/1668671302624747520
[5]https://twitter.com/hwchase17/status/1668682373767020545
[6]https://twitter.com/ItakGol/status/1668336193270865921