就在剛剛,智譜正式發(fā)布最新旗艦?zāi)P?GLM-4.5。按照智譜官方說(shuō)法,這是一款「專(zhuān)為 Agent 應(yīng)用打造的基礎(chǔ)模型」。
延續(xù)一貫的開(kāi)源原則,目前這款模型已經(jīng)在 Hugging Face 與 ModelScope 平臺(tái)同步開(kāi)源,模型權(quán)重遵循 MIT License,商用也沒(méi)問(wèn)題。
省流版:
GLM-4.5 在推理、代碼、智能體綜合能力達(dá)到開(kāi)源模型 SOTA 水平;
GLM-4.5 采用混合專(zhuān)家(MoE)架構(gòu),包括 GLM-4.5:總參數(shù)量 3550 億,激活參數(shù)為 320 億;GLM-4.5-Air:總參數(shù)量 1060 億,激活參數(shù)為 120 億;
兩個(gè)版本均已全面開(kāi)源,支持 MIT License;
GLM-4.5 和 GLM-4.5-Air 均支持混合推理模式,提供兩種模式:用于復(fù)雜推理和工具使用的思考模式,以及用于即時(shí)響應(yīng)的非思考模式。
API 調(diào)用價(jià)格低至輸入 0.8 元 / 百萬(wàn) tokens、輸出 2 元 / 百萬(wàn) tokens;高速版最高可達(dá) 100 tokens/ 秒。
GLM-4.5 這次比較大的技術(shù)賣(mài)點(diǎn),是首次在單個(gè)模型原生融合了推理、編碼和智能體能力。別人家的模型要么擅長(zhǎng)推理,要么擅長(zhǎng)寫(xiě)代碼,要么擅長(zhǎng)當(dāng)助手,而 GLM-4.5 說(shuō)自己全都要。
老規(guī)矩,先來(lái)看看新模型「跑分」環(huán)節(jié)。
當(dāng)然,光跑分沒(méi)用,還是更實(shí)戰(zhàn)的測(cè)試才有說(shuō)服力。
為了證明 GLM-4.5 在真實(shí)場(chǎng)景 Agent Coding 中的實(shí)力,智譜干脆直接接入了 Claude Code,與 Claude-4-Sonnet、Kimi-K2、Qwen3-Coder 等模型一較高下。
測(cè)試方案相當(dāng)硬核:總共 52 個(gè)編程開(kāi)發(fā)任務(wù),涵蓋六大開(kāi)發(fā)領(lǐng)域,全部在獨(dú)立容器環(huán)境中進(jìn)行多輪交互測(cè)試,主打一個(gè)真刀真槍地干。結(jié)果顯示,雖然在面對(duì) Claude-4-Sonnet 時(shí)仍有較大的提升空間,但 GLM-4.5 在工具調(diào)用可靠性和任務(wù)完成度方面的表現(xiàn)還是相當(dāng)突出。
再來(lái)看看幾個(gè)比較有說(shuō)服力的 Demo,含金量也不低。
在 z.ai 官方網(wǎng)站簡(jiǎn)單輸入提示詞「做一個(gè) Google 搜索網(wǎng)站?!?,GLM-4.5 真就能一句話生成一個(gè)真的能用的搜索引擎。
與傳統(tǒng) AI PPT 工具使用模板填充信息不同,GLM-4.5 會(huì)自主搜索資料、尋找配圖,根據(jù)實(shí)際材料直接以 HTML 形式編寫(xiě)圖文。除了常規(guī)的 16:9 比例,還能靈活支持社媒封面、長(zhǎng)圖、小紅書(shū)卡片、甚至個(gè)人簡(jiǎn)歷。
國(guó)內(nèi)用戶:https://docs.bigmodel.cn/cn/guide/develop/claude
海外用戶:https://docs.z.ai/scenario-example/develop-tools/claude
如果說(shuō)前面都是「面子」,那技術(shù)內(nèi)核才是 GLM-4.5 真正的「里子」。
冷知識(shí),GLM-4.5 的參數(shù)量?jī)H為 DeepSeek-R1 的 1/2、Kimi-K2 的 1/3,但性能卻不打折,而這背后正是歸功于 GLM 模型更高的參數(shù)效率。
尤其是 GLM-4.5-Air,用 106B 總參數(shù) / 12B 激活參數(shù),在推理評(píng)測(cè)中已經(jīng)逼近 Gemini 2.5 Flash 與 Claude 4 Sonnet。在 SWE-bench Verified 榜單上,它還位列性能 / 參數(shù)比的帕累托前沿——換句話說(shuō),用更少的體量,跑出了更優(yōu)的性價(jià)比。
GLM-4.5 和 GLM-4.5-Air 使用了相似的訓(xùn)練流程:首先在 15 萬(wàn)億 token 的通用數(shù)據(jù)上進(jìn)行了預(yù)訓(xùn)練。然后在代碼、推理、Agent 等領(lǐng)域的 8 萬(wàn)億 token 數(shù)據(jù)上進(jìn)行了針對(duì)性訓(xùn)練,最后通過(guò)強(qiáng)化學(xué)習(xí)進(jìn)一步增強(qiáng)了模型的推理、代碼與智能體能力。有錢(qián)有資源,確實(shí)可以為所欲為。
目前,API 已上線開(kāi)放平臺(tái) BigModel.cn,一鍵兼容 Claude Code 框架。普通用戶也可以上智譜清言 ( chatglm.cn ) 和 Z.ai 體驗(yàn)滿血版 GLM-4.5。
值得一提的是,上個(gè)月,OpenAI 在旗下的 Global Affairs 賬號(hào)發(fā)表的報(bào)告中,也是直接點(diǎn)名智譜,稱(chēng)其在全球 AI 競(jìng)賽中取得了顯著進(jìn)展,語(yǔ)氣可以說(shuō)是罕見(jiàn)直白。
回過(guò)頭來(lái)看,智譜算是增長(zhǎng)勢(shì)頭比較穩(wěn)定的廠商,節(jié)奏一直沒(méi)亂,模型迭代跟得上、開(kāi)源尺度放得開(kāi),方向感也不飄。這么看來(lái),它能成為「AI 六小龍」中第一個(gè)啟動(dòng) IPO 的玩家,也就不那么意外了。