智東西(公眾號:zhidxcom)
作者 | 王涵
編輯 | 漠影

智東西6月27日報道,今日,騰訊混元宣布開源首個混合推理MoE模型Hunyuan-A13B,總參數80B,激活參數僅13B,是元首個開源推理模型,騰訊將其稱為“業界首個13B級別的MoE開源混合推理模型”。

騰訊開源推理模型!13B參數比肩OpenAI o1,1張GPU就能跑

▲騰訊混元Github頁面(圖源:Github)

Hunyuan-A13B模型是騰訊內部應用和調用量最大的大語言模型之一,有超過400+業務用于精調或者直接調用,日均請求超1.3億。與其之前開源的混元large相比(bi),Hunyuan-A13B參數更小(xiao),但是性能和效(xiao)果都(dou)有(you)一(yi)定提(ti)升。

在官方發布的基準測試上,Hunyuan-A13B模型在數學、推理、Agent調用等能力上超越Qwen3-A22B、DeepSeek-R1-0120以及OpenAI-o1-1217,甚(shen)至在長文本(ben)上能和Gemini 2.5 pro“掰手腕”。

在用(yong)戶端(duan)進入Hunyuan-A13B模(mo)型主頁后,可以選擇開(kai)啟“快(kuai)思考(kao)”模(mo)式(shi),“快(kuai)思考(kao)”模(mo)式(shi)提供(gong)簡(jian)潔(jie)、高效的(de)輸出(chu),適合追求速度和(he)最小計算開(kai)銷的(de)簡(jian)單(dan)任(ren)務,如不(bu)點擊按鈕,則(ze)默認為“慢思考(kao)”模(mo)式(shi),可以輸出(chu)更深、更全面的(de)推(tui)理步(bu)驟,如反思和(he)回溯等。

騰訊開源推理模型!13B參數比肩OpenAI o1,1張GPU就能跑

此外,在開發者方面,Hunyuan-A13B模型對個人開發者較為友好,在嚴格條件下,開發者只需要1張中低端GPU卡即可部署。目前,Hunyuan-A13B已經融入開源主流推理框架生態,無損支持多種量化格式,在相同輸入輸出規模上,整體吞吐是前沿開源模型的2倍以上

即日(ri)起,模型(xing)已經在(zai)Github和Hugging Face等開源社區上(shang)線,同時模型(xing)API也在(zai)騰(teng)訊云(yun)官(guan)網正式(shi)上(shang)線,支持快速接(jie)入部署。

體驗入口(kou)://hunyuan.tencent.com/

API地址://cloud.tencent.com/product/tclm

Github ://github.com/Tencent-Hunyuan

HuggingFace://huggingface.co/tencent

一、激活參數13B,性能直追OpenAI o1

測試結果顯示,Hunyuan-A13B在數學能力、推理能力以及Agent調用能力上表現較佳,在多個基準測(ce)試榜單中超越Qwen3-A22B、DeepSeek-R1-0120以(yi)及OpenAI-o1-1217。

騰訊開源推理模型!13B參數比肩OpenAI o1,1張GPU就能跑

▲Hunyuan-Large基準(zhun)測試數(shu)據(圖源(yuan):騰訊混元)

在長文方面,Hunyuan-A13B支持256K原生上下文窗口,在PenguinScrolls和LongBench-v2長文數據集中超越DeepSeek R1和Qwen3-A22B,僅次于第一名Gemini 2.5 pro。

騰訊開源推理模型!13B參數比肩OpenAI o1,1張GPU就能跑 騰訊開源推理模型!13B參數比肩OpenAI o1,1張GPU就能跑

二、20T tokens預訓練+MoE架構優化:騰訊混元A13B大模型核心技術突破

預訓練環節,Hunyuan-A13B訓練了20T tokens的語料,覆蓋了多個領域。此外,在模型架構上,騰訊混元團隊構建了適用于MoE架構的Scaling Law聯合公式,可以進一步提升模型(xing)預訓練(lian)的效(xiao)果。

在后訓練環節(jie),Hunyuan-A13B采用(yong)了多(duo)階(jie)段的訓練方(fang)式,同時兼顧了模型創作、理解、Agent等通(tong)用(yong)能(neng)力。

騰訊開源推理模型!13B參數比肩OpenAI o1,1張GPU就能跑

▲Hunyuan-A13B后訓(xun)練四個步驟(圖源:騰訊混元)

對于時下熱門的大模型Agent能力,騰訊混元建設了一套多Agent數據合成框架,接入了MCP、沙箱、大語言模型模擬等多種環境,通過強化學習讓Agent在多(duo)種環(huan)境里進行自主探(tan)索與(yu)學習,進一步提升了Hunyuan-A13B的效果(guo)。

此外,騰訊混元還開源了兩個新的數據集。其中,ArtifactsBench構建了一(yi)個包含1825個任務的新基(ji)準(zhun),涵蓋了從(cong)網頁開(kai)發、數據(ju)可視(shi)化到交(jiao)互式游戲等九大(da)領(ling)域,并按(an)難(nan)度分級以全(quan)面評估模型(xing)的能力。

C3-Bench則(ze)針對(dui)Agent場景模(mo)(mo)型(xing)面(mian)臨的三個關(guan)鍵挑戰:規劃復雜的工具關(guan)系、處理關(guan)鍵的隱藏(zang)信息以及動態路徑(jing)決(jue)策(ce),設計(ji)了1024條測(ce)試數據,以發現(xian)模(mo)(mo)型(xing)能力(li)的不足。

結語:騰訊混元構建開源AI生態

騰訊混(hun)元(yuan)旗下(xia)圖像、視(shi)頻(pin)(pin)、3D、文本等多種模態(tai)基礎模型已全面開源(yuan)(yuan)。未來,混(hun)元(yuan)還計劃推出多尺寸混(hun)合推理模型,從0.5B到32B的dense模型,以及(ji)激活13B的MoE模型,以適配企業與端(duan)側不同需(xu)求,混(hun)元(yuan)圖像、視(shi)頻(pin)(pin)、3D等多模態(tai)基礎模型及(ji)配套插(cha)件模型也(ye)將(jiang)持續(xu)開源(yuan)(yuan)。

值得注意(yi)的(de)是,此次騰(teng)訊(xun)混(hun)元(yuan)在開源(yuan)Hunyuan-A13B模型(xing)(xing)的(de)同(tong)時,還配套開源(yuan)了ArtifactsBench和C3-Bench兩大(da)專(zhuan)業評測數(shu)據集(ji),這一舉措展現(xian)了科技大(da)廠(chang)參與行業標準(zhun)制(zhi)定的(de)積極(ji)姿態,體(ti)現(xian)了騰(teng)訊(xun)混(hun)元(yuan)推動大(da)模型(xing)(xing)技術生態共建的(de)責任。