文 | 王智遠
昨天晚上,跟朋友聊起大模型。
他說現(xiàn)在各家都 " 卷 " 到一個新階段,模型之間差距已經(jīng)很小,只能用 " 遙遙領(lǐng)先 " 或者 " 吊打同行 " 這種詞來形容。
從基準(zhǔn)測試和數(shù)據(jù)來看,很多模型都遠超 DeepSeek R1、GPT-4o,但繼續(xù)往下比的空間已經(jīng)不大了,真正的差異更多在使用方式上。
這讓我開始思考:大模型競爭,是不是已經(jīng)進入存量博弈階段?
1
說到 " 存量 ",就繞不開一個字:" 卷 "。不卷,哪來的存量?那問題來了:這個卷,到底在卷什么?
我覺得,表面看到的就三點:算力成本、數(shù)據(jù)質(zhì)量和場景滲透。
以前大模型拼參數(shù)多,現(xiàn)在開始拼誰的成本低。
阿里家的 Qwen3,用 " 混合推理 " 的技術(shù),簡單問題用低算力能快速回答,復(fù)雜問題再慢慢思考,這樣部署成本直接降到了 DeepSeek-R1 的 1/3 到 1/4。
騰訊混元 T1,3890 億參數(shù)的模型,通過稀疏激活機制,算力利用率比傳統(tǒng)模型提升了 30% 以上。
百度的文心大模型,雖然沒公開具體成本,但它的推理速度在工業(yè)級場景里比競品快 20%,也算是有自己的優(yōu)勢。
字節(jié)跳動沒直接在公開場合提到過算力優(yōu)化,但它通過抖音、今日頭條的場景化落地,間接降低了通用大模型的部署壓力。
所以,算力成本上,大家是看能不能在不犧牲性能的前提下,把成本降下來。
降下來之后呢?
關(guān)鍵還不能影響數(shù)據(jù)質(zhì)量,卷誰的訓(xùn)練數(shù)據(jù)更硬核。
阿里家 Qwen3 訓(xùn)練數(shù)據(jù)量達到了 36 萬億 token,支持 119 種語言和方言,數(shù)據(jù)質(zhì)量更有普適性。百度文心一言依托搜索、地圖等產(chǎn)品,積累了海量的真實用戶行為數(shù)據(jù)。
騰訊的混元則通過開源生態(tài)積累開發(fā)者數(shù)據(jù),在游戲和內(nèi)容生成領(lǐng)域有獨特優(yōu)勢;字節(jié)跳動則利用抖音、今日頭條的龐大流量池,捕捉用戶偏好數(shù)據(jù),讓內(nèi)容生成模型更接地氣。
所以,數(shù)據(jù)質(zhì)量的卷,是從 " 廣度 " 到 " 深度 " 的升級,不僅要數(shù)據(jù)多,還要精準(zhǔn)、垂直。
技術(shù)再強,不能解決實際問題,也只是 " 空中樓閣 ",再看看場景滲透,誰更狠一些。
Qwen3 深耕電商、金融、醫(yī)療等垂直領(lǐng)域,通過定制化微調(diào)提供行業(yè)解決方案;百度文心一言是嵌入搜索、地圖、智能音箱等產(chǎn)品,形成了 " 技術(shù) - 場景 - 用戶 " 的閉環(huán)。
騰訊的混元聚焦游戲和內(nèi)容生產(chǎn),通過混元 3D 等工具搶占多模態(tài)賽道;字節(jié)跳動是把大模型融入抖音和今日頭條的內(nèi)容生產(chǎn)流程,甚至用 AI 生成短視頻腳本,直接打通了 " 技術(shù) - 內(nèi)容 - 流量 " 的鏈條。
看到了嗎?場景滲透的卷,是從 " 技術(shù)堆疊 " 到 " 價值創(chuàng)造 " 的轉(zhuǎn)型,誰能在細分場景里跑通商業(yè)模式,誰就能突圍。
因此,我認(rèn)為這個 " 卷 " 是:卷技術(shù)、成本、場景的三角博弈;算力成本決定了誰能撐到最后,數(shù)據(jù)質(zhì)量決定了誰能跑得更穩(wěn),場景滲透決定了誰能活出差異化。
2
但這種 " 卷 ",背后隱藏著一個更深層的矛盾:
當(dāng)技術(shù)突破趨緩時,大家一個勁地開源、吊打同行,是不是意味著用這些手段,在掩蓋真正的技術(shù)瓶頸?
我認(rèn)為:是的。但不是完全沒進步,而是技術(shù)方向有點小調(diào)整。
為什么這么說?
先說數(shù)據(jù)。阿里家的 Qwen3-235B-A22B,雖然總參數(shù)量有 2350 億,但每次實際用到的參數(shù)只有 220 億,激活效率才 9.4%。
什么概念,說白了," 輕量化 " 策略確實降低了成本,這是對原來那種 " 參數(shù)越多越好 " 模式的一種妥協(xié)。現(xiàn)在單純堆參數(shù)已經(jīng)沒有太大的效果了。
再看看騰訊的混元 T1:
總參數(shù)量 3890 億,激活參數(shù)量 520 億,上下文長度也很長,但它的稀疏激活機制,本質(zhì)上還是在想方設(shè)法在不犧牲性能的前提下,把參數(shù)規(guī)模壓一壓。
文心大模型就更不用說了。4.5 Turbo 總參數(shù)量 1970 億,但每次推理最多用到 28 億參數(shù)。這說明什么?
參數(shù)量已經(jīng)不是唯一的衡量標(biāo)準(zhǔn)了,激活效率才是新的競爭點。這種調(diào)整不是在掩蓋瓶頸,而是把技術(shù)突破的方向從 " 規(guī)模擴張 " 轉(zhuǎn)向了 " 效率優(yōu)化 "。
然后,再看看技術(shù)優(yōu)化路線,阿里直接趕在五一前,推出 " 快慢思考 " 混合推理。本質(zhì)是什么?
想通過架構(gòu)創(chuàng)新來緩解技術(shù)瓶頸。Qwen3 的 " 快思考 " 是用低算力處理簡單任務(wù)," 慢思考 " 用高算力處理復(fù)雜任務(wù),這是在對原來的 Transformer 架構(gòu)進行適應(yīng)和改造。
騰訊混元的 T1 也一樣,官方說模型內(nèi)存占用減少了 40%,性能提升了兩倍;這種優(yōu)化還是依賴 MoE 架構(gòu)的稀疏激活機制,但也受限于硬件兼容性和算法復(fù)雜度。
所以,技術(shù)優(yōu)化的核心目標(biāo)是延長現(xiàn)有架構(gòu)的生命周期;說白了,更像「技術(shù)瓶頸下的權(quán)宜之計」,而不是真正的突破。
結(jié)論很明顯:
短期來看,參數(shù)激活效率、混合推理、MoE 架構(gòu)這些優(yōu)化確實緩解了算力成本壓力,但改進只是對現(xiàn)有技術(shù)框架的修補。
長期來看,技術(shù)瓶頸沒消失,變成了 " 效率瓶頸 "、" 場景適配瓶頸 "。開源生態(tài)的普及為技術(shù)迭代提供了數(shù)據(jù)和場景基礎(chǔ),但真正的突破還得靠底層架構(gòu)的創(chuàng)新。
所以,這波 " 卷 " 不是在掩蓋技術(shù)瓶頸,而是在重新定義瓶頸的形態(tài)。技術(shù)進步的速度是慢了,但方向更明確了:聚焦在效率、成本和場景落地。
3
既然這樣,問題就來了:
大廠在 " 模型卷 " 的浪潮里,到底該怎么找到 " 看家本事 "?是繼續(xù)在技術(shù)細節(jié)上摳來摳去,還是把精力放在怎么把技術(shù)用到實際場景里,或者去構(gòu)建一個更大的生態(tài)呢?
我覺得,技術(shù)細節(jié)優(yōu)化(比如調(diào)整激活參數(shù)、搞混合推理)確實能減輕算力的壓力。
但說到底,優(yōu)化的核心價值是讓現(xiàn)有的架構(gòu)能多撐一會兒。不過,這里面有個風(fēng)險:技術(shù)帶來的好處會比我們想象的更快地消失。
為什么這么說?舉個簡單的例子:
你買了一款新手機,一開始覺得電池續(xù)航特別厲害,比舊手機好很多,這就是技術(shù)紅利。但用了一段時間后,你發(fā)現(xiàn)電池老化得很快,續(xù)航優(yōu)勢很快就沒了,甚至比你預(yù)期的更早。這就是紅利衰減速度超出預(yù)期。
換句話說,技術(shù)帶來的優(yōu)勢不會一直持續(xù)下去,會逐漸減弱,減弱的速度比我們預(yù)想的更快。
有個研究,來自 DeepMind 的 Chinchilla 模型,提到通過參數(shù)補償來降低剪枝帶來的性能損失,可以在不依賴大規(guī)模后訓(xùn)練的情況下低成本壓縮模型,提升推理速度,同時最大程度保留性能。
什么意思呢?
大模型的性能提升和算力投入之間的關(guān)系已經(jīng)到了一個瓶頸階段,有點像 " 帕累托最優(yōu) "(Pareto Optimality)——再怎么努力,提升的空間也越來越小了。
說白了,現(xiàn)在大家都在過度依賴參數(shù)規(guī)模和稀疏激活機制,可能會陷入一種 " 技術(shù)幻覺 ":以為解決了成本問題,其實并沒有真正解決通用大模型的深層瓶頸。
換句話說,技術(shù)越來越同質(zhì)化,競爭也越來越內(nèi)耗。
文心一言的多模態(tài)能力雖在行業(yè)里領(lǐng)先,但核心還是依賴 Transformer 架構(gòu),沒辦法突破通用大模型的擴展性限制,這就是算法優(yōu)化的天花板。
再比如,Qwen 系列雖然全球下載量突破 3 億次,看起來很厲害,但實際上模型的功能差異很小。
那怎么辦呢?各家短期直接把架構(gòu)推倒,重新來過嗎?肯定不可能。真正的路線是從 " 技術(shù)堆疊 " 到 " 價值創(chuàng)造 "。
我覺得,對于大廠來說,價值錨點的核心在于能不能真正解決實際問題,而不是單純追求技術(shù)指標(biāo)的極致;很明顯,技術(shù)細節(jié)優(yōu)化只是手段,場景落地和生態(tài)協(xié)同才是根基。
就像艾媒咨詢在 2024-2025 年中國 AI 大模型市場研究報告里提到的:誰能找到自己的 " 價值錨點 ",誰就能在 " 下半場 " 突圍。
4
所以,大家到底怎么才能突圍呢?
現(xiàn)在看來,真正能落地到企業(yè)實際場景里的,是一個 " 三重共振 ":云廠商 + 行業(yè)應(yīng)用 + MCP 協(xié)議。
為什么說 MCP 是關(guān)鍵?因為它本質(zhì)上是重新定義了企業(yè)與 AI 怎么合作的規(guī)則。
以前企業(yè)用大模型,就像給廚師一把刀,但沒告訴他菜在哪、鍋在哪、調(diào)料在哪——他只能靠猜。
現(xiàn)在有了 MCP,相當(dāng)于給 AI 裝了一個 " 導(dǎo)航系統(tǒng) ",它能自動找到企業(yè)的數(shù)據(jù)庫、API、業(yè)務(wù)流程,甚至還能跨系統(tǒng)操作。
高德地圖是阿里云的客戶,如果接入 MCP,以后導(dǎo)航建議就不是簡單的 " 繞開擁堵 ",而是能結(jié)合用戶的消費記錄推薦周邊餐廳,甚至直接跳轉(zhuǎn)到外賣 App 下單。
這背后是 MCP 把高德的數(shù)據(jù)和阿里云的 AI 能力打通了。
那 MCP 到底怎么驅(qū)動 ToB 的范式變化?我認(rèn)為,有兩點:
一、從 " 模型為中心 " 變成 " 數(shù)據(jù)為中心 ";以前企業(yè)做 AI,總盯著模型參數(shù)、推理速度這些技術(shù)細節(jié)。但 MCP 讓重點轉(zhuǎn)向數(shù)據(jù)流通 。
二、從 " 孤島 " 變成 " 協(xié)同 ";企業(yè)內(nèi)部的系統(tǒng)通?;ゲ宦?lián)通,比如:財務(wù)系統(tǒng)、供應(yīng)鏈系統(tǒng)、客戶管理系統(tǒng)。一個公司用了誰家的云,云廠商就可以基于 MCP 把這些系統(tǒng)全打通。
打通之后,MCP 就從一個簡單的工具變成了生產(chǎn)力基礎(chǔ)設(shè)施。所以,這才是新范式。
它讓 AI 不再局限于 " 參數(shù)規(guī)模 " 或 " 推理速度 ",而是通過數(shù)據(jù)協(xié)同和場景嵌入,成為企業(yè)運營的 " 操作系統(tǒng) "。這才是企業(yè)的剛需。
這也是我為啥說,在大模型和 AI 的推動下,自下而上看,未來可能會出現(xiàn)新的飛書、釘釘這樣的平臺。它們不像飛書、釘釘那樣有通訊、協(xié)同功能,但至少能把企業(yè)的各種業(yè)務(wù)流程整合起來。
敘事還在繼續(xù),到底會不會這樣呢?deepseek R2 出來后,就見分曉了。