国产av一二三区|日本不卡动作网站|黄色天天久久影片|99草成人免费在线视频|AV三级片成人电影在线|成年人aV不卡免费播放|日韩无码成人一级片视频|人人看人人玩开心色AV|人妻系列在线观看|亚洲av无码一区二区三区在线播放

網(wǎng)易首頁 > 網(wǎng)易號 > 正文 申請入駐

Qwen3.6-35B-A3B開源了,本地部署教程

0
分享至

剛剛,Qwen3.6-開源了 Qwen3.6-35B-A3B

比較失望,不是我,還有眾多網(wǎng)友期待的 Qwen3.6-27B


簡介

Qwen3.6-35B-A3B 是一個 MoE 架構(gòu)的小身材大能量選手:35B 參數(shù)總量,但實際推理只激活 3B

這意味著什么?運(yùn)行它的算力消耗,大概只相當(dāng)于一個 3B 稠密模型,但效果能打 27B、30B 的稠密大模型


Qwen3.6-35B-A3B 綜合評測得分

這次開源的核心亮點:

  • Agentic Coding 能力大幅提升 :前端工作流和倉庫級代碼推理,明顯上了一個臺階

  • Thinking Preservation(思維保留) :全新特性,可以在多輪對話中保留歷史推理鏈,迭代開發(fā)場景下減少重復(fù)思考開銷

  • 原生多模態(tài) :視覺 + 語言雙修,不是縫合怪,內(nèi)置了視覺編碼器

  • 超長上下文 :原生支持 262,144 tokens,開啟 YaRN 后可擴(kuò)展到 100 萬 tokens

架構(gòu)揭秘:35B 總量 / 3B 激活,怎么做到的?

Qwen3.6 用的是一種混合架構(gòu)——把 Gated DeltaNet(線性注意力)Gated Attention(標(biāo)準(zhǔn)注意力) 交替堆疊,不是純 Transformer,也不是純線性注意力,而是兩者的融合體

再配上 MoE(混合專家)層:

  • 256 個專家 ,每次推理只激活 8 個路由專家 + 1 個共享專家

  • 40 層堆疊,隱層維度 2048

這套架構(gòu)的好處是:推理時大量專家處于"休眠"狀態(tài),算力需求極低;但模型的總參數(shù)量帶來了豐富的知識密度。說白了,錢都花在學(xué)習(xí)上,推理時省著用

性能實測:Agent 編程這項,真的飛了

先上核心評測數(shù)據(jù),對比選手是同規(guī)模的 Qwen3.5-35B-A3B(前代)、Gemma4-31B、Qwen3.5-27B(稠密 27B):

評測基準(zhǔn)

Qwen3.5-27B

Gemma4-31B

Qwen3.5-35BA3B

Qwen3.6-35BA3B

SWE-bench Verified

75.0

52.0

70.0

73.4

Terminal-Bench 2.0

41.6

42.9

40.5

51.5

QwenWebBench(前端)

1068

1197

978

1397

Claw-Eval Avg

64.3

48.5

65.4

68.7

Terminal-Bench 從 40.5 跳到 51.5,提升了 11 個百分點

QwenWebBench(前端代碼生成)直接從 978 干到 1397,基本上是把上一代甩出了一條街

我個人最感興趣的是 QwenWebBench 這個指標(biāo)——它評測的是生成網(wǎng)頁/小游戲/數(shù)據(jù)可視化等實際前端任務(wù),這個分?jǐn)?shù)說明 Qwen3.6 在"一句話生成 App"這類場景里有了質(zhì)的飛躍

多模態(tài)這邊也不差:視覺問答在空間智能方面(RefCOCO: 92.0,ODInW13: 50.8)甚至超過了 Claude Sonnet 4.5,文檔理解和 OCR 類任務(wù)也處于 SOTA 水平。

部署

本人還在龜速下載中,先看看幾個推理引擎下部署指南

地址:modelscope.cn/models/Qwen/Qwen3.6-35B-A3B


推薦方案一:SGLang(高吞吐生產(chǎn)場景)


uv pip install sglang[all]


# 啟動服務(wù)(8 卡,262K 上下文)
python -m sglang.launch_server \
--model-path Qwen/Qwen3.6-35B-A3B \
--port 8000 \
--tp-size 8 \
--mem-fraction-static 0.8 \
--context-length 262144 \
--reasoning-parser qwen3

加速推理可以開 MTP(多 token 預(yù)測):

python -m sglang.launch_server \
--model-path Qwen/Qwen3.6-35B-A3B \
--port 8000 --tp-size 8 \
--reasoning-parser qwen3 \
--speculative-algo NEXTN \
--speculative-num-steps 3 \
--speculative-eagle-topk 1 \
--speculative-num-draft-tokens 4

推薦方案二:vLLM

uv pip install vllm --torch-backend=auto


vllm serve Qwen/Qwen3.6-35B-A3B \
--port 8000 \
--tensor-parallel-size 8 \
--max-model-len 262144 \
--reasoning-parser qwen3

如果只做文本推理,不需要視覺能力,加上 --language-model-only 可以省下視覺編碼器的顯存給 KV Cache 用,吞吐量更高

使用

最重要的新特性:preserve_thinking,強(qiáng)烈推薦 Agent 場景開啟。

默認(rèn)情況下,模型每輪只保留最新一條消息的推理過程。開啟 preserve_thinking=True 之后,歷史輪次的推理鏈都會被保留并復(fù)用,對多步任務(wù)特別有用——減少重復(fù)思考,KV Cache 利用率也更高。

from openai import OpenAI

client = OpenAI(
api_key="DASHSCOPE_API_KEY",
base_url="https://dashscope-intl.aliyuncs.com/compatible-mode/v1",
)

completion = client.chat.completions.create(
model="qwen3.6-flash",
messages=[{"role": "user", "content": "幫我分析這個 Python 項目結(jié)構(gòu)"}],
extra_body={
"enable_thinking": True,
"preserve_thinking": True, # Agent 場景開啟
},
stream=True,
)

關(guān)掉思維鏈(非思考模式) 也很簡單,日常對話場景速度更快:

extra_body={
"chat_template_kwargs": {"enable_thinking": False},
}
? 注意:Qwen3.6 不再支持 /think/nothink 軟切換指令,需要通過參數(shù)控制。
Coding Agent 工具集成

Qwen3.6-35B-A3B 可以直接對接三款主流 Coding Agent:

方案一:Qwen Code(推薦,專為 Qwen 系列優(yōu)化)

npm install -g @qwen-code/qwen-code@latest
qwen
# 進(jìn)入后運(yùn)行 /auth 配置 API Key

方案二:OpenClaw(開源,支持自部署)

curl -fsSL https://molt.bot/install.sh | bash
export DASHSCOPE_API_KEY=
openclaw dashboard

方案三:Claude Code + Qwen API(驚喜組合)

Qwen 支持 Anthropic API 協(xié)議,意味著可以直接用 Claude Code 套殼調(diào)用 Qwen 模型:

npm install -g @anthropic-ai/claude-code

export ANTHROPIC_MODEL="qwen3.6-flash"
export ANTHROPIC_SMALL_FAST_MODEL="qwen3.6-flash"
export ANTHROPIC_BASE_URL=https://dashscope-intl.aliyuncs.com/apps/anthropic
export ANTHROPIC_AUTH_TOKEN=

claude

這個玩法挺有意思的:Claude Code 的 UI 體驗 + Qwen 的模型能力,而且 API 費用走阿里云那邊,比 Anthropic 便宜不少

本地運(yùn)行:Mac / PC 也能跑(Unsloth GGUF)

Unsloth 已經(jīng)跑通了 Qwen3.6-35B-A3B 的 GGUF 量化版本,用 llama.cpp 在本地跑完全可行

他們用自家的 Dynamic 2.0 量化方案——對重要層做精度補(bǔ)償,效果比普通 Q4 強(qiáng)不少

官方說 22GB 內(nèi)存的 Mac 就能跑


內(nèi)存需求參考(RAM + VRAM 合計):

量化精度

所需內(nèi)存

Q2 極限壓縮

~17 GB

Q4_K_XL(推薦)

~23 GB

Q5

~30 GB

Q6

~38 GB

BF16 全精度

~70 GB


? ?? 重要提示:目前 Qwen3.6 的 GGUF 版本不支持 Ollama,因為視覺編碼器(mmproj)需要單獨加載文件,Ollama 暫時處理不了這個。請用 llama.cpp 兼容后端(Unsloth Studio 或 llama-server)。

方案一:Unsloth Studio(圖形界面,新手友好)

一行命令安裝,自動搞定 llama.cpp 環(huán)境:

# macOS / Linux / WSL
curl -fsSL https://unsloth.ai/install.sh | sh


# 啟動 Web UI
unsloth studio -H 0.0.0.0 -p 8888

打開瀏覽器訪問 http://localhost:8888,搜索 Qwen3.6 下載對應(yīng)量化版本,參數(shù)會自動配好,還有思維鏈開關(guān),對小白極其友好。

方案二:llama-server 命令行

適合需要自定義參數(shù)或接入 Agent 工具的場景:

./llama.cpp/llama-server \
--model unsloth/Qwen3.6-35B-A3B-GGUF/Qwen3.6-35B-A3B-UD-Q4_K_XL.gguf \
--mmproj unsloth/Qwen3.6-35B-A3B-GGUF/mmproj-F16.gguf \
--alias "unsloth/Qwen3.6-35B-A3B" \
--temp 0.6 \
--top-p 0.95 \
--top-k 20 \
--min-p 0.00 \
--ctx-size 16384 \
--port 8001

注意兩個文件都要下載:模型主體 .gguf + 視覺編碼器 mmproj-F16.gguf,缺一不可。

啟動后用 OpenAI 兼容 API 調(diào)用:

from openai import OpenAI

client = OpenAI(
base_url="http://127.0.0.1:8001/v1",
api_key="sk-no-key-required",
)

completion = client.chat.completions.create(
model="unsloth/Qwen3.6-35B-A3B",
messages=[{"role": "user", "content": "幫我寫個貪吃蛇游戲"}],
)
print(completion.choices[0].message.content)

切換思維鏈模式也很簡單,在啟動參數(shù)里加一行:

# 關(guān)閉思維鏈(更快,日常對話)
--chat-template-kwargs '{"enable_thinking":false}'


# 開啟思維鏈(更強(qiáng),復(fù)雜推理)
--chat-template-kwargs '{"enable_thinking":true}'

llama-server 拉起來之后,同樣可以對接 Claude Code 或 Qwen Code,把本地量化模型當(dāng) Agent 后端用,完全離線,不花一分 API 費

總結(jié)

Qwen3.6-35B-A3B 是一個讓人難以挑剔的開源 MoE 模型

  • ? 3B 激活參數(shù),推理成本極低,個人顯卡也能跑

  • ? Agent 編程能力顯著提升,QwenWebBench 大幅領(lǐng)先前代

  • ? 原生多模態(tài),視覺理解能力對標(biāo) Claude Sonnet 4.5

  • ? preserve_thinking 新特性,多步 Agent 場景如虎添翼

  • ? 262K 原生上下文,YaRN 后可擴(kuò)展到 100 萬

  • ?? 不再支持 /think /nothink 軟切換,需要注意遷移成本

  • ?? 完整精度部署仍需多卡,但 Unsloth GGUF 量化版 22GB Mac 可跑

  • ?? GGUF 版本暫不支持 Ollama,需用 llama.cpp 或 Unsloth Studio

有需要在自己服務(wù)器上部署 Coding Agent 的朋友,這個應(yīng)該是目前性價比最高的開源選擇了

制作不易,如果這篇文章覺得對你有用,可否點個關(guān)注。給我個三連擊:點贊、轉(zhuǎn)發(fā)和在看。若可以再給我加個,謝謝你看我的文章,我們下篇再見!

特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺“網(wǎng)易號”用戶上傳并發(fā)布,本平臺僅提供信息存儲服務(wù)。

Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.

相關(guān)推薦
熱點推薦
伊朗宣布對所有商船開放霍爾木茲海峽,美維持對伊海上封鎖,伊朗議長:特朗普7項聲明“均不屬實”

伊朗宣布對所有商船開放霍爾木茲海峽,美維持對伊海上封鎖,伊朗議長:特朗普7項聲明“均不屬實”

縱相新聞
2026-04-18 12:36:03
突然“值錢了”!不少人家里都有,專家提醒:別賣!

突然“值錢了”!不少人家里都有,專家提醒:別賣!

劉哥談體育
2026-04-19 21:40:06
王偉中對俄羅斯后貝加爾邊疆區(qū)交通事故作出批示

王偉中對俄羅斯后貝加爾邊疆區(qū)交通事故作出批示

澎湃新聞
2026-04-19 13:55:05
不裝了賴清德、馬英九暴露真面目!國民黨發(fā)甲級動員,想決一死戰(zhàn)

不裝了賴清德、馬英九暴露真面目!國民黨發(fā)甲級動員,想決一死戰(zhàn)

青梅侃史啊
2026-04-19 19:17:48
中小學(xué)生上課時間大調(diào)整:9點上課或成新規(guī),周六上課引家長熱議

中小學(xué)生上課時間大調(diào)整:9點上課或成新規(guī),周六上課引家長熱議

復(fù)轉(zhuǎn)這些年
2026-04-18 12:47:43
美國全世界逛一圈才發(fā)現(xiàn),自己扶持所有小弟里,最能打的還是老蔣

美國全世界逛一圈才發(fā)現(xiàn),自己扶持所有小弟里,最能打的還是老蔣

呼呼體壇
2026-04-19 18:26:54
局勢生變,全球接到消息,美軍全部撤離,所有軍事基地被敘國接管

局勢生變,全球接到消息,美軍全部撤離,所有軍事基地被敘國接管

聞識
2026-04-19 21:08:29
美國證實!伊朗最高領(lǐng)袖“已受傷但仍活著”,伊朗方面此前稱穆杰塔巴·哈梅內(nèi)伊身體健康 ,但因戰(zhàn)爭推遲公開露面

美國證實!伊朗最高領(lǐng)袖“已受傷但仍活著”,伊朗方面此前稱穆杰塔巴·哈梅內(nèi)伊身體健康 ,但因戰(zhàn)爭推遲公開露面

每日經(jīng)濟(jì)新聞
2026-04-16 23:06:57
曼城羅德里傷病令人擔(dān)憂,瓜迪奧拉給出更新

曼城羅德里傷病令人擔(dān)憂,瓜迪奧拉給出更新

綠茵情報局
2026-04-20 04:22:15
研究表明,中學(xué)生的抑郁率已高達(dá)36%!

研究表明,中學(xué)生的抑郁率已高達(dá)36%!

黯泉
2026-04-18 18:06:01
《八千里路云和月》朱管家想不到,算計田家泰家業(yè),卻成全了萬福

《八千里路云和月》朱管家想不到,算計田家泰家業(yè),卻成全了萬福

白淺娛樂聊
2026-04-19 12:37:15
難怪能成為大明星,小時候居然這么漂亮!大家看出來她是誰了嗎?

難怪能成為大明星,小時候居然這么漂亮!大家看出來她是誰了嗎?

阿廢冷眼觀察所
2026-04-19 22:13:42
國產(chǎn)光纖全球“爆單”:部分產(chǎn)品價格暴漲650%

國產(chǎn)光纖全球“爆單”:部分產(chǎn)品價格暴漲650%

環(huán)球網(wǎng)資訊
2026-04-19 11:16:14
身材纖細(xì)、體態(tài)修長的日本業(yè)界骨感美人·TOP10

身材纖細(xì)、體態(tài)修長的日本業(yè)界骨感美人·TOP10

吃瓜黨二號頭目
2026-04-19 09:58:57
神替補(bǔ)!桑喬兩次送禮,鴨脖救主,維拉先被絕平又反絕殺,太刺激

神替補(bǔ)!桑喬兩次送禮,鴨脖救主,維拉先被絕平又反絕殺,太刺激

硬腿子聊個球
2026-04-19 22:58:51
真給力!5月1日起,65歲老人坐公交全省都免費 福建老人幸福感拉滿

真給力!5月1日起,65歲老人坐公交全省都免費 福建老人幸福感拉滿

今日搞笑分享
2026-04-19 16:37:15
第一次對「鋁箔紙」產(chǎn)生了敬意!以為烘焙專用,沒想到是家居神器

第一次對「鋁箔紙」產(chǎn)生了敬意!以為烘焙專用,沒想到是家居神器

裝修秀
2026-04-18 11:55:03
莫蘭特灰熊時代終章:從天之驕子到無人問津的墜落

莫蘭特灰熊時代終章:從天之驕子到無人問津的墜落

漫川舟船
2026-04-19 15:03:30
打蛇打七寸!中國全面斷供開始,日本多行業(yè)停擺,高市真慌了

打蛇打七寸!中國全面斷供開始,日本多行業(yè)停擺,高市真慌了

有你便是晴天呢
2026-04-19 09:27:13
吃相太難看!莫氏雞煲爆火后,惡心一幕出現(xiàn),終走上呆呆妹的老路

吃相太難看!莫氏雞煲爆火后,惡心一幕出現(xiàn),終走上呆呆妹的老路

以茶帶書
2026-04-15 17:30:12
2026-04-20 07:12:49
Ai學(xué)習(xí)的老章 incentive-icons
Ai學(xué)習(xí)的老章
Ai學(xué)習(xí)的老章
3334文章數(shù) 11137關(guān)注度
往期回顧 全部

科技要聞

50分26秒破人類紀(jì)錄!300臺機(jī)器人狂飆半馬

頭條要聞

半年下沉22厘米 女子家中坐擁價值上億別墅卻沒法住人

頭條要聞

半年下沉22厘米 女子家中坐擁價值上億別墅卻沒法住人

體育要聞

湖人1比0火箭:老詹比烏度卡像教練

娛樂要聞

何潤東漲粉百萬!內(nèi)娛隔空掀桌第一人

財經(jīng)要聞

華誼兄弟,8年虧光85億

汽車要聞

29分鐘大定破萬 極氪8X為什么這么多人買?

態(tài)度原創(chuàng)

游戲
健康
房產(chǎn)
旅游
數(shù)碼

"二次元GTA"直播爆了:疑似貼臉嘲諷其他二游!

干細(xì)胞抗衰4大誤區(qū),90%的人都中招

房產(chǎn)要聞

官宣簽約最強(qiáng)城更!??跇鞘?,突然殺入神秘房企!

旅游要聞

小浪底庫區(qū)南北兩岸游線通航

數(shù)碼要聞

華為新機(jī)發(fā)布前瞻:闊折疊X Max+影像旗艦Pura 90,都沒懸念了

無障礙瀏覽 進(jìn)入關(guān)懷版