4 月 29 日凌晨,阿里巴巴開源新一代通義千問模型 Qwen3(簡稱千問 3),參數(shù)量僅為 DeepSeek-R1 的 1/3,成本大幅下降,性能全面超越 R1、OpenAI-o1 等全球頂尖模型,登頂全球最強(qiáng)開源模型。千問 3 是國內(nèi)首個「混合推理模型」,「快思考」與「慢思考」集成進(jìn)同一個模型,對簡單需求可低算力「秒回」答案,對復(fù)雜問題可多步驟「深度思考」,大大節(jié)省算力消耗。
千問 3 還提供了豐富的模型版本,包含 2 款 30B、235B 的 MoE 模型,以及 0.6B、1.7B、4B、8B、14B、32B 等 6 款密集模型,每款模型均斬獲同尺寸開源模型 SOTA(最佳性能):千問 3 的 30B 參數(shù) MoE 模型實現(xiàn)了 10 倍以上的模型性能杠桿提升,僅激活 3B 就能媲美上代 Qwen2.5-32B 模型性能;千問 3 的稠密模型性能繼續(xù)突破,一半的參數(shù)量可實現(xiàn)同樣的高性能,如 32B 版本的千問 3 模型可跨級超越 Qwen2.5-72B 性能。
同時,所有千問 3 模型都是混合推理模型,API 可按需設(shè)置「思考預(yù)算」(即預(yù)期最大深度思考的 tokens 數(shù)量),進(jìn)行不同程度的思考,靈活滿足 AI 應(yīng)用和不同場景對性能和成本的多樣需求。比如,4B 模型是手機(jī)端的絕佳尺寸;8B 可在電腦和汽車端側(cè)絲滑部署應(yīng)用;32B 最受企業(yè)大規(guī)模部署歡迎,有條件的開發(fā)者也可輕松上手。
千問 3 為即將到來的智能體 Agent 和大模型應(yīng)用爆發(fā)提供了更好的支持。在評估模型 Agent 能力的 BFCL 評測中,千問 3 創(chuàng)下 70.8 的新高,超越 Gemini2.5-Pro、OpenAI-o1 等頂尖模型,將大幅降低 Agent 調(diào)用工具的門檻。同時,千問 3 原生支持 MCP 協(xié)議,并具備強(qiáng)大的工具調(diào)用(function calling)能力,結(jié)合封裝了工具調(diào)用模板和工具調(diào)用解析器的 Qwen-Agent 框架,將大大降低編碼復(fù)雜性,實現(xiàn)高效的手機(jī)及電腦 Agent 操作等任務(wù)。
據(jù)了解,千問 3 系列模型依舊采用寬松的 Apache2.0 協(xié)議開源,并首次支持 119 多種語言,全球開發(fā)者、研究機(jī)構(gòu)和企業(yè)均可免費(fèi)在魔搭社區(qū)、HuggingFace 等平臺下載模型并商用,也可以通過阿里云百煉調(diào)用千問 3 的 API 服務(wù)。個人用戶可立即通過通義 APP 直接體驗千問 3,夸克也即將全線接入千問 3。
據(jù)悉,阿里通義已開源 200 余個模型,全球下載量超 3 億次,千問衍生模型數(shù)超 10 萬個,已超越美國 Llama,成為全球第一開源模型。