
智東西(公眾號:zhidxcom)
作者 | 陳駿達
編輯 | 心緣
DeepSeek漲價了。
智東西8月23日報道,8月21日,DeepSeek在其公眾號官宣了DeepSeek–V3.1的正式發(fa)布,還宣布自9月6日起,DeepSeek將執行新價格表,取消了今年2月底(di)推出(chu)的夜間優惠,推理與非推理API統一定價,輸出價格調整至12元/百萬tokens。這一決定,讓使用DeepSeek API的最(zui)低價格較過去上升了50%。
DeepSeek在業內曾有“價格屠夫”的稱號,在2024年5月憑借DeepSeek-V2,將API價格降至輸入1元/百萬tokens、輸出2元/百萬tokens的(de)行(xing)業低價,一石(shi)激起千層浪。
僅在當月,就有智譜、字節(jie)、阿里、百度、訊(xun)飛、騰(teng)訊(xun)等廠商跟進降價,最高(gao)降幅達(da)到80%-97%,還有部分廠商直接將輕量級模型免費開放,掀起一場持續半年多的大(da)模型價格戰。
▲2024年(nian)5月部分廠(chang)商(shang)發布的大模型降價通(tong)知
然而,在2025年,卻有越來越多的廠商選擇了停止降價。在國內,“大模型六小虎”中,已有智譜、月之暗面、MiniMax、階躍星辰4家(jia)對部分API價格進行(xing)上調(diao),百川智能、零一萬物2家(jia)保持價格不變;阿里、字節、騰訊、百度、科大訊飛、商湯等大廠們廣泛采用階梯定價策略,或是拉開“推理”與“非推理”模式差距。行業的整體API價格(ge)趨于(yu)穩定,部(bu)分(fen)產品還(huan)出現了明顯(xian)上浮。
國際廠商雖然仍在宣稱智能將越來越便宜,但實際情況卻是,過去一年OpenAI、Anthropic、谷歌等企業的API價格基本原地踏步,甚至有小幅上漲。與此同時,訂閱(yue)方案越來越貴,頂級模型(xing)幾乎被鎖(suo)在200美元(yuan)/月(yue)及以上的(de)高價檔里,xAI甚至推出了(le)300美元(yuan)/月(yue)的(de)訂閱(yue)方案。
在這樣的背景下,DeepSeek漲價只是更大規模行業趨勢的一個縮影:當前,大模型價格的下行速度正逐漸放緩,頂級AI服(fu)務不(bu)再無限下探(tan),反而開始呈現趨于穩(wen)定,略有回(hui)升的態勢。
以下(xia)數據均收集(ji)于公(gong)開渠道,如有錯漏歡迎指(zhi)正。
一、DeepSeek、大模型六小虎API價格普漲,但有兩家近1年沒改價
大模型價格戰,曾經是2024年國內AI圈最火的關鍵詞之一,大模型API的價格曾經一度降至每百萬tokens幾毛錢。然而,進入2025年后,這一降價趨勢卻基本停滯,尤其(qi)是對于那些最先進的模型(xing)而(er)言。
以(yi)DeepSeek為例(li),去年(nian)年(nian)底DeepSeek-V3剛(gang)剛(gang)發布時(shi),DeepSeek進行了45天的(de)限時(shi)優(you)惠,結(jie)束(shu)后,DeepSeek-Chat API(非推理API)中輸出(chu)價格從2元(yuan)恢復(fu)到8元(yuan);這(zhe)一API的(de)價格將于(yu)今年(nian)9月份進一步上浮(fu)50%,至(zhi)12元(yuan)。
Deepseek-Reason API(推理API)的價格則相對穩定,并且會在今年9月份將輸出價格從16元降至12元。不過,總體來看,DeepSeek API的價格還(huan)是呈(cheng)上漲(zhang)趨勢(shi)。
▲DeepSeek API價格變(bian)動情況(kuang)(智(zhi)東西制圖)
大模(mo)型六(liu)小虎中,智(zhi)譜(pu)、月之暗面、百川智(zhi)能、MiniMax、階躍星辰(chen)、零一萬物的(de)(de)價格,在(zai)2025年1季度之后,基本沒(mei)有出現明顯(xian)的(de)(de)下(xia)降。
智譜上一代GLM-4模型的API定價不區分輸入輸出與輸入token數量,統一為5元/百萬tokens。而其今年7月發布的GLM-4.5模型,在去除模型發布之初的限時優惠政策后,高速推理版本(GLM-4.5-X)的輸出價格最高可達(da)到64元/百(bai)萬tokens。
即使是按照(zhao)最(zui)低檔計價(使用GLM-4.5,輸(shu)出長度(du)小于32K,輸(shu)出長度(du)小于0.2K,推理速度(du)為30-50tokens/秒),其輸(shu)出價格也從5元(yuan)/百(bai)萬tokens變成了8元(yuan)/百(bai)萬tokens。
▲GLM-4.5定價情況(圖源:智譜開放(fang)平(ping)臺官網(wang))
月(yue)之暗面(mian)2024年8月(yue)正式(shi)推(tui)出企業API,彼時在128K上下(xia)文場景中,其(qi)輸入輸出定價均(jun)為60元/百萬tokens,在業內屬于較高水平。
今年4月,月之暗面對部分API價格進行了調整,使用其最新K1.5模型的API輸出價格降至30元/百萬tokens,但在Kimi K2推出后,128K上下文場景中的高速輸出價格又回調至64元/百萬tokens。
▲月之暗面Kimi大模型API定價變化,選取的數據均為最高檔(dang)次定價(智東西制圖)
百川智能已經長期沒有對API價(jia)格(ge)進行調(diao)(diao)整(zheng),旗艦模型Baichuan4的調(diao)(diao)用價(jia)格(ge)自2024年5月(yue)發布(bu)以(yi)來,一直(zhi)維(wei)持(chi)在(zai)輸(shu)(shu)入輸(shu)(shu)出(chu)均為100元/百萬tokens的水平。
▲百川智能API價格表(圖源:百川智能)
2024年8月,MiniMax對其當時的旗艦文本生成模型abab-6.5s進行了大幅度的降價,輸入和輸出價格均統一為1元(yuan)/百(bai)萬tokens。不(bu)過,目前(qian)這一模型在(zai)其API開(kai)放平(ping)臺上(shang)已(yi)不(bu)可見。
MiniMax新一代文本生成模型MiniMax-Text-01(2025年1月發布)的定價為輸入1元/百萬tokens,輸出8元/百萬tokens;而其推理模型MiniMax-M1(2025年6月發布)的價格則采用階梯定價,最高價格為輸入2.4元/百萬token, 輸出24元(yuan)/百萬token。
▲MiniMax大模型API定價變化趨勢,選取(qu)的數(shu)據(ju)均為最(zui)高檔次定價(智東西制圖)
階躍星辰以多模態為特色。今年4月,該公司發布了Step-R1-V-Mini多模態推理模型,輸出價格為8元/百(bai)萬tokens。其7月發布的新一代多模態推理模型Step 3調整為階梯定價,輸入≤4k的價格基本持平或略有下調,在最高檔(4k < 輸入≤ 64k)的價格有一定上漲,輸出價格為10元/百萬tokens。同時,Step 3最大上下文窗口為64K,較(jiao)Step-R1-V-Mini的100K有所縮小。
▲階躍星辰(chen)大模型API定價(jia)變(bian)化(hua)趨勢,選取的數據(ju)均為最高檔次定價(jia)(智(zhi)東西(xi)制圖)
零一萬物于2024年10月發布Yi-Lighting,價格為0.99元/百萬tokens,此后未再更新API中的(de)模型價格。如(ru)今調(diao)用Yi-Lighting時,還會根據(ju)用戶輸入智(zhi)能(neng)路(lu)由(you)到DeepSeek-V3、Qwen-30B-A3B等(deng)模型。
▲零(ling)一(yi)萬(wan)物大(da)模型API定價表(biao)(圖源:零(ling)一(yi)萬(wan)物)
二、多家大廠細化定價規則,有模型輸出超300字就得加錢
更為“財大氣(qi)粗(cu)”的大廠們,也在(zai)2025年(nian)放緩了模型降價的腳步。
字節跳動在2024年5月首次推出豆包Pro家族,小于32K上下文的豆包通用模型Pro輸入價格僅為0.8元/百萬tokens,輸出價格為2元/百萬tokens。字節跳動火山引擎總裁譚待在發布會上稱,這一定價(jia)“比行業價(jia)格(ge)低99.3%”。這次發布也將大模(mo)型(xing)價(jia)格戰推至輿論的風口浪尖。
在32K上下(xia)文的場景下(xia),2025年1月發布(bu)的豆包1.5 Pro與2025年7月的豆包1.6,維持(chi)了豆包通(tong)用模型Pro的價格水平。
不過,字節進一步細化了定價規則,根據輸入、輸出兩個變量調整定價。當模型輸(shu)出(chu)超過200個token(約為300個漢字)時,豆(dou)包1.6的輸(shu)出(chu)價變為8元(yuan)/百萬(wan)tokens,輸入價不變。
▲豆包1.6階梯定價(jia)細則(圖源:火山方(fang)舟)
從(cong)初(chu)代豆(dou)包Pro,到(dao)豆(dou)包1.5 Pro,再到(dao)豆(dou)包1.6,字節(jie)豆(dou)包大模型API的最高價變化趨勢如下:
▲字節跳動(dong)豆包大模型API定價(jia)變化趨(qu)勢(shi),選取(qu)的數據均為最高檔次定價(jia)(智(zhi)東西制圖)
阿里(li)巴(ba)巴(ba)通過阿里(li)云(yun)百(bai)煉(lian)對外提供大模型API服務(wu),由于(yu)阿里(li)旗下的大模型數量眾多,更新頻率較快,且有(you)開源(yuan)版與商業(ye)版之(zhi)分,全部統(tong)計將略顯龐雜。智(zhi)東西主要追蹤了2025年(nian)以來其主力商業(ye)API服務(wu)之(zhi)一Qwen-Plus的價(jia)格(ge)變化。
可(ke)以看到,Qwen-Plus在今年4月(yue)份(fen)新版本推(tui)出(chu),并引(yin)入思考與非(fei)(fei)思考模式的(de)區別(bie)后,思考型輸(shu)出(chu)的(de)價格(ge)來到了非(fei)(fei)思考輸(shu)出(chu)的(de)4倍。
今年7月版本更新后,Qwen-Plus全面采用階梯定價的形式,128K輸入以下的調用價格與4月份定價持平,但當輸入量超過128K時,價格出現明顯上漲,最高輸出價格(ge)達到了64元/百(bai)萬tokens。
▲阿里Qwen-Plus API價格變動情(qing)況(智東西(xi)制表)
2024年7月,百度宣布將其旗艦模型ERNIE 4.0降價,以輸入40元/百萬tokens、輸出120元/百萬tokens的價格對外提供服務,百度后續逐漸將ERNIE 4.0的推理價格降至業內常見的輸入4元/百萬tokens、輸出16元/百萬tokens(未查詢到這一降價的具體時間),今年3月推出的ERNIE 4.5維持了這一定價,沒(mei)有(you)繼續下降。
▲ERNIE 4.0、ERNIE 4.5模(mo)型價格(圖源:百度)
騰(teng)訊(xun)是國(guo)內幾家大(da)廠(chang)中少數(shu)仍在逐漸下(xia)調大(da)模型API價格的企(qi)業。2024年9月,騰(teng)訊(xun)發布了混元(yuan)Turbo大(da)模型,定價為輸入15元(yuan)/百(bai)萬(wan)tokens、輸出50元(yuan)/百(bai)萬(wan)tokens,在當時屬于較高(gao)水平。
不過,目前混元Turbo的價格已經降至輸入2.4元(yuan)/百萬tokens、輸出9.6元/百萬tokens,2025年3月發布的混元TurboS價格則降至輸入0.8元(yuan)/百萬tokens、輸出2元(yuan)/百萬tokens。
▲部(bu)分騰訊(xun)混元大模型(xing)的價格(圖源:騰訊(xun)云)
科大(da)訊飛的API服(fu)務(wu)按照token包(bao)計(ji)費(fei),不(bu)(bu)區分輸(shu)入(ru)輸(shu)出,不(bu)(bu)同套餐折合后的token單價不(bu)(bu)同。
按照價(jia)格(ge)區(qu)間(jian)的(de)(de)(de)中值計(ji)算(suan),2024年1月(yue)推出的(de)(de)(de)星火(huo)3.5的(de)(de)(de)價(jia)格(ge)約為(wei)25元/百(bai)萬(wan)tokens,同(tong)年6月(yue)推出的(de)(de)(de)星火(huo)4.0價(jia)格(ge)約為(wei)60元/百(bai)萬(wan)tokens,同(tong)年10月(yue)發布的(de)(de)(de)星火(huo)4.0 Turbo,以及2025年1月(yue)升級后的(de)(de)(de)新版星火(huo)4.0 Turbo,都維持了這一價(jia)格(ge)。
▲訊(xun)飛星火3.5、星火4.0、星火4.0 Turbo價格變化(智東西制圖)
不過(guo),訊飛也(ye)推出了一款基于全國產(chan)算力訓練的深(shen)度推理大模型星火(huo)X1,其(qi)價格(ge)約為11元/百萬(wan)tokens。
商湯旗艦模型日(ri)日(ri)新(xin)系列的API價(jia)格從2024年5月的20元(yuan)/百萬tokens,回(hui)落至(zhi)2025年4月的9元(yuan)/百萬tokens,今年7月最新(xin)發(fa)布的SenseNova-V6.5 Pro維持(chi)了這一價(jia)格。
▲對應模型分別為日(ri)日(ri)新SenseChat-5-1202、SenseNova-V6-Pro、SenseNova-V6.5 Pro,均為當時商湯已發布的最先進模型(智東西制圖)
三、海外大模型廠商“說一套做一套”,訂閱方案漲至200美元級別
國際主流大模(mo)型廠商(shang)之間(jian),雖沒有出現明(ming)顯(xian)的(de)價格戰現象,但“鼓(gu)吹”智能的(de)成本將不斷降(jiang)低,是(shi)海(hai)外AI圈幾位大咖們最熱衷的(de)話題之一。
今年(nian)7月(yue),OpenAI聯合創始人、首席(xi)執行官Sam Altman說(shuo)道:“智能(neng)的(de)價格將(jiang)低到無法計(ji)量,我們能(neng)將(jiang)每(mei)個(ge)單位(wei)的(de)智能(neng)的(de)成本,每(mei)年(nian)降低至(zhi)原來(lai)的(de)1/10,至(zhi)少持(chi)續5年(nian)。”
2024年9月,谷歌首席執行官(guan)Sundar Pichai分享了同樣的(de)(de)觀點:“在不久(jiu)的(de)(de)將來,智能將像(xiang)空氣(qi)一樣豐富,并且基本(ben)上對所有(you)人免(mian)費。”
近期,The Information的統計數據揭示了一個與上述觀點相悖的現實,海外主要大模型廠(chang)商(shang)的(de)(de)API價格(ge)在(zai)2024年7月后的(de)(de)1年多(duo)時(shi)間(jian)里,就沒有出現明顯的(de)(de)下降,甚至還有輕微的(de)(de)漲(zhang)幅。
例如,OpenAI的GPT系(xi)列(lie)模(mo)型每百萬tokens的價(jia)格(ge),自從2024年(nian)底降至12.5美元之后,便沒有繼(ji)續大幅(fu)度下探,目前(qian)維(wei)持(chi)在(zai)11.25美元的水平。
Anthropic的Claude 3、Claude 4系列模型,自推出(chu)以來就從未(wei)降(jiang)價。
谷歌的(de)Gemini Pro模型的(de)調用(yong)價格(ge)出現上漲,從Gemini-1.5 Pro的(de)12.5美元/百萬(wan)tokens漲至17.5美元/百萬(wan)tokens。
▲最先進的通用(yong)模(mo)型價格近期基本(ben)沒有出(chu)現下降(圖(tu)源:The Information)
過(guo)去(qu)一年中,多家海外頭(tou)部AI公(gong)司還相繼推出了月費超過(guo)200美元的高階訂閱方案。
OpenAI與Anthropic均推出了200美元/月(yue)的訂閱檔位;谷歌最新的AI Ultra捆綁包定價為249.99美元(yuan)/月;xAI旗下的Grok更進一步,將其頂級訂閱方案設定為300美(mei)元/月的高價。
這些高端訂閱服務的共同特點是:用戶只有支付超高額的月費,才能使用到各家在發布會上展示的跑分最高、性能最強的旗艦模型。無論是更強的推理能力、更長的上下文窗口,還是更精準的代碼或復雜任務處理能力,均被保留在付費墻之后,高性能模型成為高付費(fei)用戶專屬的(de)資源。
那么(me),究竟是什么(me)原(yuan)因,導致(zhi)了過去一段時間內AI服務價格下降(jiang)趨勢的明(ming)顯停滯,甚(shen)至出(chu)現(xian)逆(ni)向走高呢?
四、算力、數據、人才價格持續推高,大模型玩家們也要考慮ROI
大(da)模型廠商們在算力、數據以及人才等方面的(de)巨大(da)投(tou)入,驅動了過(guo)去1年AI模型性能的(de)飛(fei)速提升。
算力方面,GPU的租賃價格目前已經趨于穩定。智東西收集的數據顯示,2024年9月左右,AWS、微軟Azure、谷歌云等主流公有云上的H100每卡時租賃價格大約在5-11美(mei)元的(de)區間。
今年,根據算力市場數據分析公司Silicon Data的GPU價格指數,H100已經基本穩定在每卡時租賃(lin)價格2-3美(mei)元的區(qu)間,沒有出現(xian)價格的大幅度波動。
▲H100 GPU租賃價格(ge)(圖源:Silicon Data)
同時,新一代大模型無論是在訓練還是推理階段,算力需求都在不斷增加。在與相對穩定的GPU價格復合后,算力成本成為限制AI服務價格繼續下探的“硬門檻”之一。
數(shu)據也(ye)是當今(jin)大模(mo)型訓(xun)練中不可忽視的成(cheng)本項。起初(chu),由(you)于(yu)監(jian)管缺(que)位(wei),大模(mo)型訓(xun)練數(shu)據的獲取成(cheng)本相對(dui)較(jiao)低。隨著相關(guan)訴訟增多和合(he)(he)規審(shen)查趨嚴(yan),為了(le)避免與數(shu)據所有者(zhe)發生法律糾紛,廠(chang)商(shang)開始主動(dong)與企業簽訂合(he)(he)同,購買授權(quan)數(shu)據。
例如,據《華爾街日報》報道,OpenAI與美國出版集團News Corp簽署的5年數據使用協議金額可能高達2.5億美(mei)元;谷歌則與美國的貼吧類平臺Reddit達成AI使用內容許可協議,路透社報道稱,其每年價格約為6000萬美元。
與此同時,這些模型背后人才的價(jia)格,也在水漲船高。
在國內,獵聘大數據研究院7月份發布的《2025上半年人才供需洞察報告》顯示當前國內AI人才缺口已突破500萬,AI技術人員平均年薪為(wei)32.35萬元,50萬(wan)年(nian)薪以上的(de)AI技術崗(gang)占比(bi)高達31.03%。AI技術人才(cai)的(de)期(qi)望年(nian)資(zi)甚至高于如今的(de)平均年(nian)資(zi),為44.09萬(wan)元(yuan)。
大洋彼岸,硅谷的AI人才爭奪戰打得火熱。除了那些數億美元的個別案例之外,AI人才的整體薪資水平也明顯高于其他行業。國際職場平臺Levels.FYI上的數據顯示,在舊金山灣區,ML/AI工程師的薪資中位數要比所有軟件工程師的薪資中位數高13%左右(you)。考慮到所有軟件工程師的統計范疇內包含了ML/AI工程師,后者的薪(xin)資優勢可能更大。
▲美國舊金山灣區ML/AI工程(cheng)師(shi)薪資(圖源(yuan):Levels.FYI)
五、訂閱模式面臨服務成本考驗,成本控制迫在眉睫
打造大模型的成本越來越高昂,而隨著推理模型范式的興起,以及Agent等長序列任務的出現,用戶的用量正在不斷攀升。大模型訂閱就像是一張“無限流量卡”,用戶用得越多,大模型廠商(shang)們提供服務的成本便越高,有部(bu)分廠商(shang)已經被用戶逼到了入不敷出的程度(du)。
本月,Anthropic旗下的Claude Code編程Agent便取消了200美元/月訂閱方案的無限調用大模型權限,原因是有用戶幾乎24小時不停地使用大模型,為這些用戶提供AI服務的成本已經達到了每月數萬美元,遠超訂閱(yue)方(fang)案的定價。
Anthropic更(geng)是在(zai)發布會上宣(xuan)稱,Claude 4 Opus能連續7小時(shi)工作,完成(cheng)(cheng)編(bian)程類任務(wu)。按(an)照Claude 4 Opus大約50 tokens/秒的推理速度計(ji)算,這一任務(wu)大約會用掉126萬個token,成(cheng)(cheng)本約113.4美元。
面臨高昂的服務成(cheng)本,大模型廠商們紛紛祭出各(ge)種手段(duan)來(lai)降低開支。
DeepSeek在其(qi)最新一代模(mo)型中提出(chu)了(le)多種降本(ben)方法(fa)。例如,在對DeepSeek-V3.1進行(xing)思(si)維(wei)鏈(lian)壓縮訓練后,模(mo)型推理(li)時輸出(chu)token數可減少20%-50%,且各項任務(wu)的(de)平(ping)均表現(xian)與DeepSeek-R1-0528持平(ping)。這(zhe)意味(wei)著DeepSeek的(de)聊(liao)天(tian)機器人,能在不影響
DeepSeek-V3.1還在一個模(mo)型內(nei)支(zhi)持了思考模(mo)式(shi)與非思考模(mo)式(shi),開(kai)發者可通過特定標(biao)簽(qian)控制推理的開(kai)關,進一步節(jie)省API使(shi)用成(cheng)本。
騰(teng)訊混元降本(ben)的思路是(shi)架(jia)構(gou)(gou)創新。在(zai)混元TurboS上,騰(teng)訊融合了兩(liang)種架(jia)構(gou)(gou),讓(rang)Transformer的上下文(wen)理解力與Mamba的長序(xu)列處理能力結(jie)合,實現性能與效率的平衡。
OpenAI在GPT-5上采取(qu)了(le)“模型自動路由”的方式:判(pan)斷(duan)任務的復雜度,將相對簡單(dan)的需求(qiu)分配給輕量模型處(chu)理,從而(er)節省(sheng)算(suan)力資源。托管GPT-5的微軟Azure稱(cheng),這一(yi)方式最高可將推(tui)理成本削減(jian)60%。
然而,問題的關鍵在于:大模型廠商和云服務提供商的成本下降,并不必然傳導為終端用戶與企業的使用成本下降。當前,如何(he)在高昂的(de)前期研發與部署投(tou)入后,將千億美元級別(bie)的(de)AI投(tou)資真(zhen)正轉化為(wei)商業價值,已成為(wei)所有(you)大模型玩家(jia)必須(xu)回(hui)答的(de)問題。
結論:大模型價格還有下探空間嗎?
未來(lai),大(da)模型(xing)(xing)價格的下降還(huan)存(cun)在幾條路徑(jing)。一(yi)方面,隨(sui)著模型(xing)(xing)平均(jun)性(xing)能的提(ti)(ti)升(sheng),未來(lai)經過(guo)優(you)化的中低端廉(lian)價模型(xing)(xing),也可(ke)高效(xiao)(xiao)解(jie)決特定任務。此外,隨(sui)著大(da)模型(xing)(xing)、芯片領域的基礎(chu)研(yan)究不斷(duan)進(jin)步,新的技術路徑(jing)持續涌現,或許能在不犧牲效(xiao)(xiao)果的前提(ti)(ti)下,進(jin)一(yi)步壓縮訓練與推理的單位成本。
從產業發(fa)展的(de)(de)角度(du)來看,大模型價格的(de)(de)階段性停(ting)滯或是回(hui)升有(you)其價值(zhi)。這為廠商(shang)回(hui)收前期(qi)巨額研發(fa)與(yu)基礎(chu)設施投入,維持可(ke)持續創新(xin)提供了緩沖期(qi),也能推動市(shi)場(chang)加速(su)探索明確的(de)(de)商(shang)業化場(chang)景和(he)付費(fei)模式。產業有(you)望借此機會,營(ying)造更為成(cheng)熟、健康的(de)(de)生態。