国产av一二三区|日本不卡动作网站|黄色天天久久影片|99草成人免费在线视频|AV三级片成人电影在线|成年人aV不卡免费播放|日韩无码成人一级片视频|人人看人人玩开心色AV|人妻系列在线观看|亚洲av无码一区二区三区在线播放

網(wǎng)易首頁 > 網(wǎng)易號 > 正文 申請入駐

「北京版幻方」開源SOTA代碼模型!40B參數(shù)掀翻Opus-4.5和GPT-5.2

0
分享至

衡宇 發(fā)自 凹非寺
量子位 | 公眾號 QbitAI

又一個中國新模型被推到聚光燈下,刷屏國內(nèi)外科技圈。

IQuest-Coder-V1模型系列,看起來真的很牛。

在最新版SWE-Bench Verified榜單中,40B參數(shù)版本的IQuest-Coder取得了81.4%的成績,這個成績甚至超過了Claude Opus-4.5和GPT-5.2(這倆模型沒有官方資料,但外界普遍猜測參數(shù)規(guī)模在千億-萬億級)。

Oh~Tiny Core, Titan Power。



好,看到這里我盲猜很多人肯定已經(jīng)開始邊搖頭邊笑了。

畢竟這年頭,benchmark的權(quán)威猶在,但說服力似乎已經(jīng)大不如前了。

那咱們就看看這個模型跑出來的case——

Prompt:編寫一個網(wǎng)頁來展示一個逼真的太陽系模擬。

然后你將得到:



可以自由切換各種視角,讓畫面暫停、放大,調(diào)整公轉(zhuǎn)速度也ok。

選中具體的行星,還會跳出相應(yīng)的名字和簡單介紹。



目前,這套代碼大模型系列已經(jīng)在GitHub和抱抱臉上開源

有一個重點一定要劃?。。?/p>

這個模型團隊IQuest,和DeepSeek團隊一個路數(shù),都出自中國的量化私募。

背后公司就是北京版幻方量化——九坤投資。

(兩家公司都是業(yè)內(nèi)公認的量化私募頭部)

X、Reddit等平臺上,關(guān)于IQuest-Coder的消息和對中國量化公司殺入AI模型戰(zhàn)場的討論已經(jīng)滿天飛了。

有網(wǎng)友一臉unbelievable地問出了令他詫異的問題:

中國量化公司到底吸納了些什么人才,才能把模型訓練成這樣?????



Ok,一起來看看這套模型的詳細情況吧~

IQuest-Coder-V1系列

從定位上看,IQuest-Coder-V1是一套覆蓋多個參數(shù)規(guī)模與使用場景的家族版本,專注于代碼生成、代碼理解與軟件工程任務(wù)的模型系列

參數(shù)有7B、14B和40B的,每個規(guī)模均提供Instruct和Thinking兩種版本。

其中,Instruct偏向指令跟隨與工程使用,更高效;Thinking強化復雜推理和多步問題拆解,響應(yīng)時間更長。



特別提醒大家注意一下,40B參數(shù)規(guī)模的IQuest-Coder-V1額外提供了Loop版本,用于探索更高的參數(shù)利用效率。

與計算成本相似的模型相比,IQuest-Coder-V1-40B-Loop的HBM和KV Cache開銷顯著降低,而吞吐量大幅提升。

僅增加約5%的訓練成本,Loop架構(gòu)下,40B模型達到數(shù)百億參數(shù)MoE模型的水平。



在架構(gòu)設(shè)計上,IQuest-Coder-V1系列強調(diào)了“工程友好”和“長上下文可用性”。

官方在GitHub上給出的四點架構(gòu)特性分別是:

  • 分組查詢注意力(Grouped Query Attention,GQA)以實現(xiàn)高效推理
  • 原生支持128K上下文長度
  • 詞表大?。?6800個token
  • 循環(huán)變體采用了具有共享參數(shù)的循環(huán)Transformer設(shè)計,該設(shè)計在兩個迭代過程中保持一致。

首先說說GQA的引入。

通過減少KV頭數(shù)量來降低推理階段的顯存占用和計算壓力,對長上下文場景超級友好。

其次,模型原生支持128K上下文長度。這就讓模型有能力直接處理完整代碼倉庫、跨文件依賴以及大規(guī)模工程上下文。

第三,76800個token的詞表大小,更貼近真實代碼環(huán)境中頻繁出現(xiàn)的標識符、路徑名和符號組合。

最后,在Loop變體中,模型采用了具有跨兩次迭代共享參數(shù)的循環(huán)Transformer設(shè)計,用重復計算換取更高的參數(shù)利用率,在不線性擴大模型規(guī)模的前提下提升性能。

作者刻意指出,這和早期Parallel Loop Transformer不同,去掉了token shifting和inference trick,更強調(diào)推理階段的穩(wěn)定性。

這些特性組合在一起,有利于模型在真實軟件工程場景中跑得更好



來看官方展示的更多case。

Prompt 1:構(gòu)建一個粒子-文本動畫,滿足以下要求。

  • 文本采樣:將給定文本(例如,IQuest)在 Canvas 上轉(zhuǎn)換為由數(shù)百個小粒子組成的點陣。
  • 狀態(tài):每個粒子都有一個當前位置和一個目標位置(形成文本)。
  • 交互式物理效果:當鼠標靠近時相互排斥和散開;當鼠標移開時平滑地彈回。
  • 視覺效果與緩動:隨機/漸變顏色,用于整體運動的緩動效果。



Prompt 2:構(gòu)建一個實時像素沙盒游戲。

通過按鈕切換沙子、水、石頭和酸液;在畫布上涂畫可生成具有不同顏色的元素;大規(guī)模更新依然流暢;元素會自然下落并流動。



Prompt 3:構(gòu)建一個完整的單文件HTML5 Canvas太空射擊游戲,具有復古霓虹美學和明顯的戰(zhàn)斗反饋。

  • 視覺風格:黑色背景,高飽和度霓虹幾何形狀,街機感。
  • 控制:WASD移動;兩種瞄準/炮塔模式(鼠標跟隨,或按R鍵旋轉(zhuǎn)炮塔)。
  • 射擊:帶完整視覺效果的自動射擊太空飛船。
  • 反饋:擊殺時,出現(xiàn)粒子爆炸效果;受到傷害時,屏幕會震動。
  • 敵人:普通士兵/奇襲者/重型坦克,以及Boss戰(zhàn)。
  • 進階:按P鍵能升級火力。



Prompt 4:基于鳥群算法的仿生鳥/魚群體模擬,擁有150個以上的自主Agent,有實時調(diào)節(jié)功能。

  • 核心規(guī)則:分離(避免碰撞)、對齊(速度匹配)和內(nèi)聚(群體中心)。
  • 實時面板:調(diào)整分離/對齊/凝聚權(quán)重(0-3)、視覺半徑(20-150 像素)和最大速度。
  • 交互:鼠標充當捕食者,使附近的智能體散開。
  • 渲染:在深色背景下,以運動方向旋轉(zhuǎn)的霓虹三角形和發(fā)光軌跡。
  • 工具:FPS 計數(shù)器和暫停/繼續(xù)(空格鍵)。



與眾不同的“代碼流多階段訓練”訓練策略

IQuest-Coder的訓練流程如下——

預訓練階段先用通用數(shù)據(jù)和大規(guī)模代碼數(shù)據(jù)打底,然后通過高質(zhì)量代碼annealing強化基礎(chǔ)代碼表征。

中期訓練階段第一次明確引入reasoning、agent trajectory和長上下文代碼,并且分32K和128K兩個尺度逐步推進。

最終post-training階段,模型被明確分流成instruct路線和thinking路線,分別用不同目標函數(shù)和RL方式收斂。



官方強調(diào),IQuest-Coder-V1系列采用了與傳統(tǒng)單一靜態(tài)源代碼訓練不同的訓練策略。

稱之為code-flow multi-stage training。

與大量代碼模型側(cè)重從靜態(tài)代碼片段中學習不同,這套方法強調(diào)從代碼的演化過程中學習。

團隊專門設(shè)計了基于項目生命周期的triplet數(shù)據(jù)構(gòu)造方式,用 (R_old, Patch, R_new) 這樣的結(jié)構(gòu),讓模型看到穩(wěn)定期代碼、變更內(nèi)容以及變更后的結(jié)果。

而且刻意避開項目早期和后期,只取40%–80%生命周期區(qū)間。

這一步實際上把“軟件工程經(jīng)驗”顯式編碼進了訓練數(shù)據(jù)里。

所以模型看到的并不只是某一時刻的完成態(tài)代碼,還包括修改前后的差異、提交歷史中的邏輯變化,以及真實工程中反復試錯和修正的痕跡。

也就是說模型被訓練得能夠捕捉軟件邏輯的動態(tài)演變。



不少網(wǎng)友猜測,這就是IQuest-Coder-V1在多個軟件工程類評測中表現(xiàn)突出的重要原因之一。

這套模型成績確實亮眼。

  • SWE-Bench Verified:81.4%
  • BigCodeBench:49.9%
  • LiveCodeBench v6:81.1%



下面這張圖體現(xiàn)得更直觀一點,IQuest-Coder在八個代碼、Agentic相關(guān)榜單上都獨占鰲頭。



不過,GitHub上白紙黑字寫著,模型可以生成代碼,但不能執(zhí)行,始終在沙盒環(huán)境中驗證輸出結(jié)果。

部署方面,官方信息顯示,不管是基礎(chǔ)版本還是Loop版本,都支持單卡H20推理。

其Int4版本可在單張消費級3090/4090 GPU上部署。



有網(wǎng)友表示,非Loop版本的模型似乎采用的是阿里Qwen2的架構(gòu)。



隨著關(guān)注度上升,質(zhì)疑也同步出現(xiàn)。



九坤投資公司是誰?

好,最后我們來認識一下IQuest-Coder背后的公司,九坤投資(Ubiquant Holding Limited)。

公司成立于2012年,是中國較早一批專注量化投資和高頻交易的私募機構(gòu)之一,目前管理規(guī)模在數(shù)百億元人民幣,和幻方同屬于公認的國內(nèi)量化私募頭部公司。

九坤主要辦公地在北京,3周前開設(shè)了新加坡辦公室。

聯(lián)合創(chuàng)始人王琛,2000年考入清華大學,獲得數(shù)學物理學士學位和理論計算機博士學位,博士期間師從圖靈獎得主姚期智院士。

博士畢業(yè)后,王琛就職于美國頂級對沖基金Millennium,后創(chuàng)業(yè)擔任九坤投資聯(lián)合創(chuàng)始人、CEO。

聯(lián)合創(chuàng)始人姚齊聰,2002年考入北京大學數(shù)學系,獲得數(shù)學學士和金融數(shù)學碩士學位。

碩士畢業(yè)后進入Millennium,后與王琛共同創(chuàng)業(yè),主要負責九坤投研體系搭建、量化策略開發(fā)和風險管理,被視為公司策略和風控體系的核心設(shè)計者之一。

九坤的投研與技術(shù)團隊人數(shù)超過百人,90%以上畢業(yè)于清華、北大、復旦、斯坦福等國內(nèi)外知名高校,博士占比超過60%。

公開信息顯示,這家公司目前也傾向于從全球頂尖高校招募具有計算機、數(shù)學、物理、統(tǒng)計學等背景的應(yīng)屆畢業(yè)生。



在AI領(lǐng)域,幻方更早憑DeepSeek站到臺前。

不過查詢有關(guān)資料發(fā)現(xiàn),此前九坤也很注重AI技術(shù)這一塊

目前,九坤的IT和算力建設(shè)位居國內(nèi)量化機構(gòu)前三,并建立了數(shù)據(jù)實驗室(DATA LAB)、人工智能實驗室(AI LAB)等多個前沿實驗室。

本次發(fā)布的IQuest-Coder就出自其發(fā)起設(shè)立的獨立研究平臺至知創(chuàng)新研究院。

倒也不全是為了把AI用在金融市場預測和交易決策啦——前段時間(2025年12月16日),九坤已經(jīng)推出過通用推理模型URM。

該模型在ARC-AGI正確率為53.8%,當允許多次嘗試時,URM的成功率能達到85%以上;在更困難的ARC-AGI 2上也拿到了16.0%。

Paper最后附上了IQuest-Coder團隊的成員名單。



挺長的,就不一一介紹了。

不過我們發(fā)現(xiàn)這篇paper的核心作者層,和《Scaling Laws for Code》《CodeSimpleQA》《From Code Foundation Models to Agents and Applications》作者陣容重合度非常高。

所以這里稍微展開介紹一下Core Contributor的幾位成員。

(注:IQuestLab團隊成員很多沒有公開個人檔案,我們這里放出可尋找到的公開資料)

Jian Yang,谷歌學術(shù)被引量超過1.6萬。

此前應(yīng)該在Qwen 2.5和Qwen 3團隊待過很長一段時間,2025年起開始在九坤投資發(fā)表論文。



Zhengmao Ye,本科畢業(yè)于西南交通大學,在四川大學獲得計算機科學碩士學位。

此前,他曾在華為和商湯科技擔任過技術(shù)工作人員。



你沒看錯,8位Core Contributor就找到了2位的公開資料,真的盡力了.gif

另外,paper的通訊作者,是九坤人工智能實驗室首席研究員和負責人Bryan Dai。



Paper地址:
https://github.com/IQuestLab/IQuest-Coder-V1/tree/main/papers
參考資料:
[1]https://x.com/zephyr_z9/status/2006579658972868988?s=20
[2]https://github.com/IQuestLab/IQuest-Coder-V1?tab=readme-ov-file
[3]https://iquestlab.github.io/#/
[4]https://www.reddit.com/r/LocalLLaMA/comments/1q0x19t/anyone_tried_iquestcoderv1_yet_the_40b_numbers/

特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺“網(wǎng)易號”用戶上傳并發(fā)布,本平臺僅提供信息存儲服務(wù)。

Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.

相關(guān)推薦
熱點推薦
美女老板確認:遇暫時困難 無法兌現(xiàn)湘超奪冠贈車承諾 愿再獎10萬

美女老板確認:遇暫時困難 無法兌現(xiàn)湘超奪冠贈車承諾 愿再獎10萬

我愛英超
2026-01-03 16:38:23
4分險勝北控!廣東3人滿分全員殺紅眼,狠人杜鋒逼出最強薩林杰

4分險勝北控!廣東3人滿分全員殺紅眼,狠人杜鋒逼出最強薩林杰

后仰大風車
2026-01-03 21:50:04
看到這些明星才知道啥叫斷崖式衰老!張子健和陳小春就像換了個人

看到這些明星才知道啥叫斷崖式衰老!張子健和陳小春就像換了個人

陸盼盼
2025-12-26 04:18:30
中老年人要遠離洋蔥?醫(yī)生提醒:不想進醫(yī)院,這幾物別輕易下嘴

中老年人要遠離洋蔥?醫(yī)生提醒:不想進醫(yī)院,這幾物別輕易下嘴

健康之光
2025-12-31 08:55:06
“抓住”馬杜羅,美國就贏了?委政府:全體人民立即轉(zhuǎn)入武裝斗爭

“抓住”馬杜羅,美國就贏了?委政府:全體人民立即轉(zhuǎn)入武裝斗爭

阿芒娛樂說
2026-01-03 21:28:17
隨著廣廈雙殺北京,廣東險勝北控,上海6連勝,CBA最新積分榜出爐

隨著廣廈雙殺北京,廣東險勝北控,上海6連勝,CBA最新積分榜出爐

侃球熊弟
2026-01-03 21:50:42
15票贊成0票反對,安理會投票結(jié)果公布,美俄態(tài)度一致,中方表態(tài)

15票贊成0票反對,安理會投票結(jié)果公布,美俄態(tài)度一致,中方表態(tài)

近史談
2026-01-03 23:05:30
二百多名軍官被槍斃、撤職、處分,長津湖戰(zhàn)役中失職的志愿軍88師

二百多名軍官被槍斃、撤職、處分,長津湖戰(zhàn)役中失職的志愿軍88師

丞丞故事匯
2025-12-28 00:13:54
老婆敗光20億、肝功能受損、發(fā)表遺言?64歲張學友現(xiàn)狀曝光惹人憂

老婆敗光20億、肝功能受損、發(fā)表遺言?64歲張學友現(xiàn)狀曝光惹人憂

李大嘴說本尊
2026-01-02 13:05:22
36歲便慷慨就義的瞿秋白,建國后毛主席為何會有 “以后少紀念他” 這樣的評價?

36歲便慷慨就義的瞿秋白,建國后毛主席為何會有 “以后少紀念他” 這樣的評價?

桃煙讀史
2025-12-31 21:38:26
伯克希爾,跳水!

伯克希爾,跳水!

證券時報
2026-01-03 21:01:05
突發(fā)!中國資產(chǎn)大爆發(fā)!

突發(fā)!中國資產(chǎn)大爆發(fā)!

錢眼
2026-01-03 19:26:04
1971年,周總理為高崗遺孀李力群安排了圖書館的工作,毛主席得知后不同意,明確表態(tài):“必須到教育部”

1971年,周總理為高崗遺孀李力群安排了圖書館的工作,毛主席得知后不同意,明確表態(tài):“必須到教育部”

清風鑒史
2025-12-31 23:16:09
新華社消息|美國2025年超1.46萬人死于槍支暴力

新華社消息|美國2025年超1.46萬人死于槍支暴力

新華社
2026-01-02 15:31:38
中國動“真格”了!中方霸氣警告:90天內(nèi)不給358億賠償金

中國動“真格”了!中方霸氣警告:90天內(nèi)不給358億賠償金

趣生活
2025-12-31 20:59:47
2026年第一大瓜!女網(wǎng)紅司曉迪爆料自己把頂流男明星都睡過一遍了

2026年第一大瓜!女網(wǎng)紅司曉迪爆料自己把頂流男明星都睡過一遍了

樂悠悠娛樂
2026-01-03 13:15:54
“刺殺普京” 真相揭開!不是烏克蘭,也不是歐盟,而是一旁的它

“刺殺普京” 真相揭開!不是烏克蘭,也不是歐盟,而是一旁的它

奉壹數(shù)碼
2026-01-03 22:36:14
馬杜羅被送紐約,委國已亂,27國和美撇清關(guān)系,特朗普或輸個精光

馬杜羅被送紐約,委國已亂,27國和美撇清關(guān)系,特朗普或輸個精光

李健政觀察
2026-01-03 22:26:30
廣東隊傷病情況更新!張昊6-8月恢復 崔永熙和麥考爾年后復出

廣東隊傷病情況更新!張昊6-8月恢復 崔永熙和麥考爾年后復出

胖子噴球
2026-01-03 10:09:46
日本人靠它發(fā)財,美國人用它打仗,中國人卻把它當毒藥扔進垃圾桶

日本人靠它發(fā)財,美國人用它打仗,中國人卻把它當毒藥扔進垃圾桶

策略述
2025-12-18 14:11:27
2026-01-03 23:52:49
量子位 incentive-icons
量子位
追蹤人工智能動態(tài)
11964文章數(shù) 176356關(guān)注度
往期回顧 全部

科技要聞

比亞迪銷冠!特斯拉2025年交付量跌逾8%

頭條要聞

牛彈琴:美國入侵委內(nèi)瑞拉 給世界帶來三個血的教訓

頭條要聞

牛彈琴:美國入侵委內(nèi)瑞拉 給世界帶來三個血的教訓

體育要聞

青島西海岸官宣:鄭智出任一線隊主教練

娛樂要聞

司曉迪事件再升級 司曉迪稱鹿晗最好

財經(jīng)要聞

具身智能搶人大戰(zhàn):畢業(yè)一年 年薪300萬

汽車要聞

奕派科技全年銷量275,752輛 同比增長28.3

態(tài)度原創(chuàng)

親子
本地
藝術(shù)
時尚
公開課

親子要聞

小學畢業(yè)證果然不是白拿的

本地新聞

即將過去的2025年,對重慶的影響竟然如此深遠

藝術(shù)要聞

50億!非洲正在建全球最大足球場,容納11.5萬人!

好美啊!58歲的她開掛了

公開課

李玫瑾:為什么性格比能力更重要?

無障礙瀏覽 進入關(guān)懷版