大模型價(jià)格戰(zhàn):大廠燒錢狂飆,小廠如何抉擇

任曉寧 錢玉娟 周悅2024-05-25 12:09

經(jīng)濟(jì)觀察報(bào) 記者 任曉寧 錢玉娟 周悅 又有玩家加入了大模型價(jià)格戰(zhàn)。

5月22日,騰訊云宣布大幅下調(diào)旗下主力大模型混元系列的價(jià)格。當(dāng)天,科大訊飛也宣布降價(jià),它的策略和騰訊相似,輕量模型免費(fèi),高性能模型降價(jià)。

大模型(LLM,Large Language Model),即具有大規(guī)模參數(shù)和復(fù)雜計(jì)算結(jié)構(gòu)的機(jī)器學(xué)習(xí)模型,代表著當(dāng)前AI技術(shù)的主流方向,也是國內(nèi)外互聯(lián)網(wǎng)公司重點(diǎn)布局的AI產(chǎn)品。

自5月15日字節(jié)跳動宣布旗下豆包大模型價(jià)格“以厘計(jì)費(fèi)”以來,這場大模型價(jià)格戰(zhàn)愈演愈烈,阿里巴巴、百度等國內(nèi)互聯(lián)網(wǎng)大廠相繼選擇參戰(zhàn)。

與之形成鮮明對比的是,多家大模型初創(chuàng)公司選擇了不降價(jià)的策略。截至發(fā)稿,除智譜AI以外,其他大模型明星初創(chuàng)公司——百川智能、Minimax、月之暗面、零一萬物并沒有調(diào)整價(jià)格。同時(shí),智譜AI的大模型價(jià)格在下調(diào)后仍高于大廠。

國金證券互聯(lián)網(wǎng)傳媒首席分析師陳澤敏告訴經(jīng)濟(jì)觀察報(bào),這些公司此次選擇大幅降價(jià),是看到了大模型第一性原理——尺度定律(Scaling Laws)的釋放,未來算力成本可能會更便宜。所以他們現(xiàn)在提前降價(jià),先把自己的生態(tài)搭建起來。

談及大模型初創(chuàng)公司面對價(jià)格戰(zhàn)的不同選擇,陳澤敏說,降價(jià)或者不降價(jià)都可以理解。像智譜AI這種在B端(企業(yè)客戶)有優(yōu)勢的廠商,就沒必要徹底參與價(jià)格戰(zhàn)。

圖1:近期國內(nèi)廠商大模型價(jià)格戰(zhàn)情況

微信圖片_20240525120203

數(shù)據(jù)來源:公司官網(wǎng),經(jīng)濟(jì)觀察報(bào)整理

大廠為何爭相降價(jià)

多家企業(yè)在宣布大模型降價(jià)時(shí),都提到了技術(shù)進(jìn)步帶來的成本下降。

百度董事長兼首席執(zhí)行官李彥宏曾表示,與一年前相比,百度旗下文心大模型的推理性能提升了105倍,推理成本則降到了原來的1%。字節(jié)跳動旗下火山引擎總裁譚待也提到,該公司可以通過混合專家模型(MoE)、分布式推理等技術(shù)手段,優(yōu)化豆包大模型的推理成本,不會走用虧損換收入的道路。

創(chuàng)新奇智是一家企業(yè)級AI解決方案供應(yīng)商。該公司首席技術(shù)官張發(fā)恩認(rèn)為,技術(shù)進(jìn)步的確推動了大模型推理成本的下降。一方面,得益于芯片技術(shù)的不斷突破,單位算力對應(yīng)的成本在下降。“打個(gè)比方,原來(購買)單位算力需要1塊錢,現(xiàn)在5毛錢就能買到。”另一方面,現(xiàn)在大模型的量化壓縮技術(shù)也越來越先進(jìn)。以前運(yùn)行一個(gè)80億參數(shù)的大模型,一般需要16GB的顯存容量,現(xiàn)在只需要4GB。

不過,張發(fā)恩強(qiáng)調(diào),技術(shù)進(jìn)步可幫助推理成本每年下降到原來的1/2左右,大模型的降價(jià)幅度卻是以10倍來計(jì)算的。技術(shù)進(jìn)步不是游戲規(guī)則改變的主要原因,商業(yè)決策才是本次降價(jià)的根本原因。企業(yè)希望盡快獲得更多客戶,占據(jù)更多市場份額,未來業(yè)務(wù)規(guī)模做大了,再去想辦法掙其他的錢。他還認(rèn)為,當(dāng)前大模型技術(shù)的場景滲透率還很低,價(jià)格戰(zhàn)并不明智。

經(jīng)濟(jì)觀察報(bào)注意到,目前降低的只是調(diào)用大模型應(yīng)用程序編程接口(API)的費(fèi)用。與這一費(fèi)用相比,客戶使用云服務(wù)后,付費(fèi)環(huán)節(jié)更多、付費(fèi)額度更高。

以百度云的千帆大模型平臺為例,雖然有兩款百度旗下的大模型可以免費(fèi)調(diào)用,但是模型部署、精調(diào)、評估、數(shù)據(jù)管理、插件調(diào)用等環(huán)節(jié)都需要按量付費(fèi)。以最基礎(chǔ)的模型部署為例,客戶租賃5天私有資源池至少需要7000元。

阿里云在大模型降價(jià)后的第二天,就推出了上云優(yōu)惠的組合拳,包括首次推出5億元算力補(bǔ)貼,以及為200余款云產(chǎn)品制定折扣價(jià),這些產(chǎn)品包括覆蓋顯卡(GPU)云服務(wù)器、大模型訓(xùn)練與推理服務(wù)等產(chǎn)品。

AI智能體(AI Agent)平臺公司瀾碼科技的創(chuàng)始人周健認(rèn)為,國產(chǎn)大模型正處在“燒錢換數(shù)據(jù),競爭優(yōu)質(zhì)數(shù)據(jù)”的階段。他稱,大模型廠商實(shí)際上在燒錢進(jìn)行大量的投入,多數(shù)廠商不太考慮定價(jià)能否覆蓋住成本或帶來利潤。從商業(yè)策略層面看,現(xiàn)在大模型廠商展開降價(jià)的主要目的是收集更多樣的數(shù)據(jù)。“競相降價(jià)的現(xiàn)象,不能說是一個(gè)噱頭,(廠商)互相之間在競爭數(shù)據(jù),他們希望能夠有更多的開發(fā)者基于各自的大模型去開發(fā)應(yīng)用。”周健說。

使用者更看重性能

盡管價(jià)格戰(zhàn)打得火熱,但一些使用大模型的業(yè)內(nèi)人士告訴經(jīng)濟(jì)觀察報(bào),與價(jià)格相比,他們更看重大模型的性能。

齊心集團(tuán)是一家企業(yè)對企業(yè)(B2B)辦公物資服務(wù)和軟件即服務(wù)(SaaS)云視頻企業(yè)。該公司的首席技術(shù)官于斌平說,他的團(tuán)隊(duì)從去年5月開始正式使用大模型,然后不斷地對百度文心大模型和GPT模型(美國AI公司OpenAI旗下的大模型)進(jìn)行調(diào)試,會調(diào)用大模型的API,也會在云上做自己的預(yù)訓(xùn)練和精調(diào)。

在將模型的準(zhǔn)確率從80%多調(diào)試到90%多的過程中,于斌平發(fā)現(xiàn),越往后調(diào),越能發(fā)現(xiàn)模型能力存在的差異。在常見的聊天、文檔摘要、翻譯、智能客服這些功能上,大模型的推理、泛化能力可能差不多。但齊心集團(tuán)需要將大模型應(yīng)用于生產(chǎn)場景,對它的實(shí)際推理能力要求比較高。

從AI三要素來看,于斌平也認(rèn)為大廠的大模型有較大優(yōu)勢。他說,在算法上,廠商的差異不大,大家都有一些好的工程師。在算力上,大廠投入較大,具備優(yōu)勢。在數(shù)據(jù)上,因?yàn)橛?xùn)練大模型需要公共數(shù)據(jù),做搜索業(yè)務(wù)的百度,優(yōu)勢明顯。

于斌平稱,他的團(tuán)隊(duì)使用的百度文心大模型4.0,并不在此次降價(jià)的范圍內(nèi)。但即便有廠商推出更便宜的大模型,他們也不打算更換,這不僅是由于文心大模型4.0足夠強(qiáng)大,也是因?yàn)樗麄冊谇捌谡{(diào)試大模型的過程中付出了太多精力。

在為瀾碼科技選取大模型時(shí),周健會考慮價(jià)格因素,但他更關(guān)注模型的質(zhì)量、推理能力、參數(shù)和準(zhǔn)確率。“在客戶算力有限的情況下,不同的參數(shù)、準(zhǔn)確率,決定了我們能夠處理的項(xiàng)目規(guī)模。”周健說,不同的模型還會形成不同的客單價(jià)。此外,模型的連續(xù)性也會影響應(yīng)用開發(fā),例如更新速度是否足夠快,都在一定程度上對應(yīng)用的能力、競爭力以及能否滿足市場需求有影響。

在周健看來,國內(nèi)大模型廠商降價(jià),對產(chǎn)業(yè)內(nèi)的應(yīng)用開發(fā)商帶來了直接影響。“過去成本高昂,開發(fā)商需要考慮token(大模型文本中的最小單位)的費(fèi)用,許多嘗試受到限制。”大模型價(jià)格一旦降至“以厘計(jì)費(fèi)”,甚至免費(fèi),應(yīng)用開發(fā)商的成本曲線將大幅下降,這將促使他們更容易進(jìn)行開發(fā)、試錯,從而找到一些適用于大模型時(shí)代的AI原生應(yīng)用。

初創(chuàng)公司要找對場景

零一萬物創(chuàng)始人李開復(fù)和百川智能創(chuàng)始人王小川都對大模型初創(chuàng)公司加入價(jià)格戰(zhàn)持否定態(tài)度。他們認(rèn)為成本并不是客戶選擇大模型的唯一因素,企業(yè)和開發(fā)者也會綜合考慮性能、市場、安全、需求等因素。

李開復(fù)認(rèn)為大模型的性能優(yōu)勢是關(guān)鍵。他預(yù)計(jì)推理成本將會以每年10倍的幅度降低,但是瘋狂降價(jià)是雙輸,他不會靠貼錢、賠錢去做生意。對需要最好模型的客戶來說,購買100萬個(gè)tokens的資源包,支付幾元或者十幾元的費(fèi)用差別不大。王小川也表示不會參與價(jià)格戰(zhàn),他判斷大廠降價(jià)實(shí)質(zhì)是云廠商的新戰(zhàn)爭。大模型初創(chuàng)公司沒有云服務(wù)的生態(tài)優(yōu)勢,不需要和大廠競爭價(jià)格,也不需要和其他中小企業(yè)競爭垂類賽道應(yīng)用,而是要做一款超級應(yīng)用。

一位與多家大模型廠商有合作的互聯(lián)網(wǎng)大廠人士稱,缺少落地場景是很多大模型廠商存在的通病。當(dāng)大廠投入補(bǔ)貼來搶用戶時(shí),那些缺少模型差異化能力又沒有商業(yè)化模式的大模型初創(chuàng)公司會被直接“卷死”。

據(jù)上述互聯(lián)網(wǎng)大廠人士透露,某家大模型明星初創(chuàng)公司旗下的C端(個(gè)人用戶)產(chǎn)品,每計(jì)算一次的成本高達(dá)一百多元。他并不懷疑該產(chǎn)品在某些細(xì)分場景的能力表現(xiàn),但綜合來看,它的能力并沒有明顯地超越阿里通義千問模型、百度文心大模型,甚至它還缺少可驗(yàn)證商業(yè)化的場景。當(dāng)阿里、百度等大廠拉響大模型低價(jià)警報(bào)時(shí),“它還不考慮生存的話,下一輪融資都沒有了”。

上述互聯(lián)網(wǎng)大廠人士還稱,在大模型初創(chuàng)公司中,他比較看好智譜AI這類在B端場景里專注行業(yè)賦能、并在模型層繼續(xù)向上走的廠商,以及像Mini Max這種已經(jīng)找到了屬于自己的C端場景的廠商,這些商業(yè)模式清晰的公司才是能長久生存的。

 

版權(quán)聲明:以上內(nèi)容為《經(jīng)濟(jì)觀察報(bào)》社原創(chuàng)作品,版權(quán)歸《經(jīng)濟(jì)觀察報(bào)》社所有。未經(jīng)《經(jīng)濟(jì)觀察報(bào)》社授權(quán),嚴(yán)禁轉(zhuǎn)載或鏡像,否則將依法追究相關(guān)行為主體的法律責(zé)任。版權(quán)合作請致電:【010-60910566-1260】。
TMT新聞部資深記者
關(guān)注并報(bào)道TMT(科技、傳媒、通信)領(lǐng)域重大事件,擅長行業(yè)分析、深度報(bào)道。
聯(lián)系郵箱:renxiaoning@eeo.com.cn
微信號:tangtangxiaomo

熱新聞