開(kāi)源編程模型的天花板,要被 Qwen3-Coder 掀翻了。
今天凌晨,Qwen3-Coder-Flash 也重磅開(kāi)源!
多編程任務(wù)超越頂級(jí)開(kāi)源模型,僅略遜于閉源的 Claude Sonnet-4、GPT-4.1 等。
原生上下文窗口支持 256k token,可延長(zhǎng)拓展至 1 million token。
33GB 內(nèi)存(即中端筆記本)可運(yùn)行。
啥概念?
相當(dāng)于 GPT-4.1 級(jí)別的能力,還能讓你本地使用!
我想這將是本地編程的最好選擇。
采用 MoE 架構(gòu),30 億參數(shù)總量,激活參數(shù) 3.3 億。
原生上下文窗口支持 256k token,通過(guò) YaRN 等可延長(zhǎng)至一百萬(wàn) token 上下文,適合大型代碼庫(kù)和復(fù)雜多文件工程。
針對(duì) Qwen Code、Cline、Roo Code、Kilo Code 等平臺(tái)進(jìn)行優(yōu)化。
無(wú)縫支持函數(shù)調(diào)用和 agent 工作流。
主要強(qiáng)調(diào)了 Agent 方面的能力:
Agentic Coding(智能體編程)
Agentic Browser Use(智能體瀏覽器使用)
Agentic Tool Use(智能體工具調(diào)用)
有博主在 M2 Macbook Pro 上用量化版 Qwen3-Coder-Flash( 24.82GB 6bit MLX 版)做的游戲,運(yùn)行效果很不錯(cuò)。
Write an HTML and JavaScript page implementing space invaders.
這意味著訓(xùn)練數(shù)據(jù)中可能存在大量相關(guān)或者類(lèi)似任務(wù),才能讓模型一次就能輸出非常好的效果。
博主在首次嘗試后,感覺(jué)飛船發(fā)射的子彈太快了,所以想要讓它降速一點(diǎn)。
由于他使用的 Open WebUI 沒(méi)有類(lèi)似于 Claude Artifacts 的工具調(diào)用的功能,這意味著模型需要重新輸出一個(gè)完整結(jié)果,實(shí)測(cè)表明它確實(shí)可以做到。
此外他還實(shí)測(cè)了生成鵜鶘騎自行車(chē),每秒 60 個(gè) tokens,不過(guò)效果有點(diǎn)問(wèn)題。
Qwen3-Embedding
Qwen-Vlo
Qwen-TTS
Qwen3-235B-A22B
Qwen3-Coder
Qwen-MT
Qwen3-235B-A22B-Thinking-2507
Qwen3-30B-A3B-Instruct-2507
……
而且都開(kāi)源了,還提出了很多小顯存友好的方案。
開(kāi)源之光的 title 在國(guó)產(chǎn)模型這里競(jìng)爭(zhēng)格外激烈?。╠oge)
QwenChat:chat.qwen.ai
魔搭社區(qū):https://www.modelscope.cn/models/Qwen/Qwen3-Coder-30B-A3B-Instruct
HF:https://huggingface.co/Qwen/Qwen3-Coder-30B-A3B-Instruct
一鍵三連「點(diǎn)贊」「轉(zhuǎn)發(fā)」「小心心」
歡迎在評(píng)論區(qū)留下你的想法!
— 完 —
希望了解 AI 產(chǎn)品最新趨勢(shì)?
量子位智庫(kù)「AI 100」2025 上半年
「旗艦產(chǎn)品榜」和「創(chuàng)新產(chǎn)品榜」
給出最新參考
點(diǎn)亮星標(biāo)
科技前沿進(jìn)展每日見(jiàn)