国产av一二三区|日本不卡动作网站|黄色天天久久影片|99草成人免费在线视频|AV三级片成人电影在线|成年人aV不卡免费播放|日韩无码成人一级片视频|人人看人人玩开心色AV|人妻系列在线观看|亚洲av无码一区二区三区在线播放

網(wǎng)易首頁(yè) > 網(wǎng)易號(hào) > 正文 申請(qǐng)入駐

SciencePedia:解壓科學(xué)的“暗物質(zhì)”

0
分享至


導(dǎo)語(yǔ)

大多數(shù)科學(xué)資料會(huì)壓縮推理過(guò)程,僅呈現(xiàn)結(jié)論而省略支撐結(jié)論的推導(dǎo)鏈。由于缺乏明確的逐步論證,這種壓縮阻礙了驗(yàn)證,而且坍縮建立概念間邏輯與因果關(guān)聯(lián)的路徑會(huì)抑制跨領(lǐng)域鏈接。本文提出一種可擴(kuò)展框架,用于解壓縮科學(xué)推理過(guò)程,構(gòu)建可驗(yàn)證的長(zhǎng)思維鏈(LCoT)知識(shí)庫(kù),并將其投射為一個(gè)新興的百科全書 ——SciencePedia。我們的流程采用了一種目標(biāo)驅(qū)動(dòng)的還原論策略:一個(gè)由大概 200 門課程指導(dǎo)的蘇格拉底智能體,生成了約 300 萬(wàn)個(gè)基于第一性原理的問(wèn)題。為確保高可信度,多個(gè)獨(dú)立的求解器模型生成長(zhǎng)思維鏈,隨后通過(guò)提示詞凈化和跨模型答案共識(shí)進(jìn)行嚴(yán)格篩選,僅保留那些具有可驗(yàn)證終點(diǎn)的推理鏈。這個(gè)經(jīng)過(guò)驗(yàn)證的語(yǔ)料庫(kù)為頭腦風(fēng)暴搜索引擎提供支持,使引擎執(zhí)行反向知識(shí)搜索 —— 檢索最終指向目標(biāo)概念的多樣化、基于第一性原理的推導(dǎo)。進(jìn)而,該引擎為柏拉圖合成器提供輸入,柏拉圖合成器將這些經(jīng)過(guò)驗(yàn)證的推理鏈敘述為連貫的文章。初始版 SciencePedia 包含約 20 萬(wàn)個(gè)細(xì)粒度條目,涵蓋數(shù)學(xué)、物理、化學(xué)、生物、工程和計(jì)算機(jī)科學(xué)。在六個(gè)學(xué)科的評(píng)估中,與沒(méi)有檢索的同等提示基線相比,柏拉圖生成器基于檢索到的長(zhǎng)思維鏈生成的文章具有更高的知識(shí)點(diǎn)密度和更低的事實(shí)錯(cuò)誤率(由外部大型語(yǔ)言模型判定)。基于此可驗(yàn)證的長(zhǎng)思維鏈知識(shí)庫(kù),這種以推理為核心的方法能夠?qū)崿F(xiàn)大規(guī)模、可信的跨領(lǐng)域科學(xué)綜合,并為不斷擴(kuò)展的百科全書奠定了基礎(chǔ)。

關(guān)鍵詞:長(zhǎng)思維鏈(Long Chain of Thought), 科學(xué)推理(Scientific Reasoning), 知識(shí)庫(kù)(Knowledge Base), 逆向知識(shí)搜索(Inverse Knowledge Search), 百科全書(Encyclopedia)

Lynne丨作者

彭晨丨審校


論文題目:Inverse Knowledge Search over Verifiable Reasoning: Synthesizing a Scientific Encyclopedia from a Long Chains-of-Thought Knowledge Base 論文鏈接:https://arxiv.org/abs/2510.26854 發(fā)表時(shí)間:2025年11月7日 論文來(lái)源:arXiv SciencePedia網(wǎng)站鏈接:https://www.bohrium.com/sciencepedia

被壓縮的“暗物質(zhì)”:傳統(tǒng)知識(shí)體系的根本缺陷

維基百科匯聚了幾乎所有領(lǐng)域的知識(shí),但卻存在不同語(yǔ)言版本的質(zhì)量參差不齊,學(xué)科壁壘難以打破等局限。這些問(wèn)題看似獨(dú)立,實(shí)則源于人類主導(dǎo)的編纂這一方式的根本缺陷:推理過(guò)程的極端壓縮。為減輕時(shí)間和精力成本,從教科書到維基,人類構(gòu)建的科學(xué)語(yǔ)料庫(kù)優(yōu)先呈現(xiàn)結(jié)論,而非推理過(guò)程。而這些龐大而未記錄的推理網(wǎng)絡(luò),正是人類知識(shí)的 “暗物質(zhì)” 。這種“暗物質(zhì)”的缺失導(dǎo)致了當(dāng)前的知識(shí)體系有兩個(gè)關(guān)鍵問(wèn)題。

  1. 知識(shí)變得難以導(dǎo)航和驗(yàn)證;人們只能訴諸權(quán)威,而非透明、可審查的思維過(guò)程。

  2. 一旦把推導(dǎo)路徑壓縮殆盡,我們便切斷了學(xué)科內(nèi)部以及學(xué)科之間的內(nèi)在聯(lián)系,那些驅(qū)動(dòng)創(chuàng)新的微妙跨學(xué)科紐帶也隨之喪失。

要逆轉(zhuǎn)這種壓縮,將推理的“暗物質(zhì)”外部化,需要一個(gè)遠(yuǎn)超人類能力的知識(shí)生成與驗(yàn)證的引擎。大語(yǔ)言模型(LLM)成為第一個(gè)可行的候選者。但若直接讓 LLM 提煉知識(shí)或撰寫百科,結(jié)果必然失敗——會(huì)重現(xiàn) “重結(jié)論、輕推理” 的模式,繼承人類互聯(lián)網(wǎng)語(yǔ)料的 “暗物質(zhì)盲視”;而且,LLM 存在“幻覺(jué)”(hallucinations)問(wèn)題。

故研究團(tuán)隊(duì)提出了一套兩步走的解決方案:首先,系統(tǒng)性構(gòu)建一個(gè)規(guī)模龐大、可驗(yàn)證且高度互聯(lián)的長(zhǎng)思維鏈(LCoT)知識(shí)庫(kù),其核心是基于第一性原理的推導(dǎo);其次,將這個(gè) “解壓縮” 的知識(shí)庫(kù)投射為人類可探索的百科全書。這讓知識(shí)回歸 “推理本身”,而非僅僅是 “推理的結(jié)果”。

LCoT 語(yǔ)料庫(kù):為何能成為可靠的知識(shí)基石?

研究團(tuán)隊(duì)假定由現(xiàn)代 LLM 生成的長(zhǎng)思維鏈語(yǔ)料庫(kù),構(gòu)成了一種與 LLM 預(yù)訓(xùn)練數(shù)據(jù)(互聯(lián)網(wǎng)語(yǔ)料)截然不同的新型數(shù)據(jù)分布。這種獨(dú)特性與可靠性,源于兩大核心支柱。

一、新穎性:推理的全新統(tǒng)計(jì)分布。

LLM 的預(yù)訓(xùn)練,本質(zhì)上是讓模型對(duì)齊人類互聯(lián)網(wǎng)語(yǔ)料的分布。然而,這種語(yǔ)料具有強(qiáng)烈的“壓縮性”:它充斥著大量“系統(tǒng) 1”式的快速、直覺(jué)性結(jié)論,卻缺乏“系統(tǒng) 2”式的逐步推演。換句話說(shuō),對(duì)于一個(gè)輸入問(wèn)題 Q,在訓(xùn)練數(shù)據(jù)中幾乎找不到相應(yīng)的推理鏈,這也導(dǎo)致基礎(chǔ)模型幾乎不具備生成 LCoT 的能力。

但經(jīng)過(guò)后訓(xùn)練(post-training)后,局面發(fā)生了根本轉(zhuǎn)變。研究采用了 “基于可驗(yàn)證獎(jiǎng)勵(lì)的強(qiáng)化學(xué)習(xí)”(Reinforcement Learning from Verifiable Rewards, RLVR)范式 —— 這種方法不再讓模型模仿表面文本,而是優(yōu)化其生成終點(diǎn)可被驗(yàn)證的推理軌跡(比如讓模型計(jì)算一道物理題的最終數(shù)值、推導(dǎo)出一個(gè)確定的數(shù)學(xué)公式或匹配已知解)。這一過(guò)程解鎖了模型的長(zhǎng)文本推理能力,讓經(jīng)過(guò) RLVR 訓(xùn)練的模型能夠針對(duì)問(wèn)題 Q 生成長(zhǎng)篇、多步驟的 LCoT。最終,兩個(gè)模型的生成分布出現(xiàn)巨大差異:LLM 生成 LCoT 的概率,遠(yuǎn)高于基礎(chǔ)模型趨近于零的水平。

這種統(tǒng)計(jì)偏差,正是 LCoT 語(yǔ)料庫(kù)的新穎性所在。

二、可靠性:因果與邏輯的固有一致性。

雖然新的分布并非完美,也會(huì)存在隨機(jī)誤差(即 “幻覺(jué)”),但是LCoT 的核心優(yōu)勢(shì)在于可驗(yàn)證性:這些推理軌跡的訓(xùn)練目標(biāo)是 “終點(diǎn)可機(jī)械驗(yàn)證”的(如數(shù)值答案、符號(hào)公式),其有效性可以被外部評(píng)估。多個(gè)獨(dú)立的模型,幾乎不可能巧合地生成不同錯(cuò)誤推理路徑、卻最終收斂到同一正確答案。因此,通過(guò) “跨模型答案驗(yàn)證”(Cross-Model Answer Validation)達(dá)成的共同結(jié)論,可以用來(lái)篩選因果與邏輯一致性。這一特性,讓 LCoT 語(yǔ)料庫(kù)不僅新穎,更能高度貼合科學(xué)的真實(shí)結(jié)構(gòu)。

LCoT 知識(shí)庫(kù)的構(gòu)建:

蘇格拉底智能體的 “還原論” 策略

為了形成一個(gè)全面、互聯(lián)且基于第一性原理的知識(shí)庫(kù),研究團(tuán)隊(duì)構(gòu)建了以“長(zhǎng)思維鏈問(wèn)答對(duì)”(LCoT-QA pairs)為基本知識(shí)單元的新框架。它貼合科學(xué)探究的本質(zhì)(以問(wèn)題為起點(diǎn)),為驗(yàn)證提供了清晰框架(從問(wèn)題到結(jié)論的推理鏈),讓龐大的知識(shí)庫(kù)變得可導(dǎo)航(問(wèn)題作為復(fù)雜推導(dǎo)網(wǎng)絡(luò)的語(yǔ)義入口)。

研究團(tuán)隊(duì)基于還原論策略開(kāi)發(fā)了 “蘇格拉底智能體”(Socratic agent),可以規(guī)?;?LCoT-QA 對(duì),工作流程如圖 1 所示。


圖1. 問(wèn)題生成與交叉驗(yàn)證的三階段流程。首先,規(guī)劃智能體(Planner) 依據(jù)一個(gè)知識(shí)單元生成高層次的“問(wèn)題草圖”。其次,生成智能體(Generator) 將這些草圖擴(kuò)展為答案可驗(yàn)證的具體題目。最后,題目被提交給多個(gè)獨(dú)立的解題智能體(Solver),它們(不同 LLM)的答案經(jīng)交叉驗(yàn)證,以確保生成內(nèi)容的正確性與可靠性。

蘇格拉底智能體并非從公理出發(fā) “正向推理”(這種方式的完整性難以保證),而是從高層知識(shí)點(diǎn)(即 “終點(diǎn)”)出發(fā),讓模型從更基礎(chǔ)的原理中推導(dǎo)出該知識(shí)點(diǎn)。這種策略能系統(tǒng)性確保知識(shí)覆蓋的完整性,同時(shí),智能體會(huì)要求模型從不同抽象層級(jí)(如本科、研究生水平)推導(dǎo)同一終點(diǎn),使得模型清晰闡述不同科學(xué)理解層級(jí)間的關(guān)聯(lián)。

為了讓 “終點(diǎn)” 的定義更全面,團(tuán)隊(duì)開(kāi)發(fā)了基于課程的支架式實(shí)現(xiàn)(curriculum-based scaffolding):首先手動(dòng)整理了約 200 門本科與研究生課程,每門課程枚舉約 200 個(gè)核心主題;隨后,為每個(gè)主題自動(dòng)生成約 100 個(gè)提示(prompts),這些提示分為兩類:還原論提示(What and Why),要求模型從指定第一性原理解釋概念或推導(dǎo)結(jié)果;應(yīng)用提示(How),將理論與實(shí)際場(chǎng)景結(jié)合。

知識(shí)生成后,更關(guān)鍵的是多維度驗(yàn)證協(xié)議。第一步是提示詞凈化(Prompt Sanitization):在推理開(kāi)始前,用獨(dú)立的 LLM 檢查生成的問(wèn)題是否科學(xué)、合理,濾除約 5% 的有瑕疵問(wèn)題;第二步是可驗(yàn)證終點(diǎn)設(shè)計(jì):提示詞生成時(shí)偏向答案可客觀驗(yàn)證的問(wèn)題(如符號(hào)/數(shù)值計(jì)算、代碼解決方案),讓正確與否有明確判斷標(biāo)準(zhǔn);第三步是跨模型答案驗(yàn)證:每個(gè)問(wèn)題至少由兩個(gè)不同LLM處理,若最終答案存在分歧,整個(gè)問(wèn)答對(duì)會(huì)丟棄。研究數(shù)據(jù)顯示,在物理問(wèn)題樣本中,LLM的成功率從本科問(wèn)題的約 70% 降至研究生問(wèn)題的約 50%。

頭腦風(fēng)暴搜索引擎:

讓知識(shí)搜索變成 “推理探索”

當(dāng) LCoT 知識(shí)庫(kù)構(gòu)建完成后,研究團(tuán)隊(duì)進(jìn)一步開(kāi)發(fā)了用于知識(shí)合成與發(fā)現(xiàn)的核心工具——頭腦風(fēng)暴搜索引擎(Brainstorm Search Engine)。

對(duì)于傳統(tǒng)搜索引擎,用戶能查到 “某個(gè)概念是什么”,卻難以挖掘 “這個(gè)概念如何推導(dǎo)而來(lái)”。頭腦風(fēng)暴搜索引擎直接以 LCoT 知識(shí)庫(kù)為操作對(duì)象 ,“推理過(guò)程” 本身就是核心內(nèi)容。

引擎的核心機(jī)制被定義為反向知識(shí)搜索(inverse knowledge search),用戶只需提供一個(gè)目標(biāo)概念,引擎就能檢索出包含該概念的所有 LCoT 推導(dǎo)鏈。

例如,若搜索 “瞬子(Instanton)”,傳統(tǒng)搜索可能僅返回其技術(shù)定義;而頭腦風(fēng)暴搜索引擎會(huì)呈現(xiàn)多維度的推導(dǎo)鏈:它作為量子隧穿描述工具的核心作用、在宇宙學(xué)中描述霍金輻射的應(yīng)用,甚至在純數(shù)學(xué)領(lǐng)域推動(dòng)四維流形理解的突破性貢獻(xiàn)等等。

柏拉圖智能體:

讓合成內(nèi)容 “有創(chuàng)意且無(wú)幻覺(jué)”

頭腦風(fēng)暴搜索引擎發(fā)現(xiàn)的新穎且可驗(yàn)證的關(guān)聯(lián),直接為 AI 科學(xué)寫作的 “幻覺(jué)” 問(wèn)題提供了解決方案——基于該引擎構(gòu)建的柏拉圖智能體(Plato agent),一個(gè)專注于結(jié)構(gòu)化合成而非無(wú)約束生成的創(chuàng)意合成器(如圖 2)。


圖2. 頭腦風(fēng)暴搜索引擎與柏拉圖智能體架構(gòu)。用戶向“頭腦風(fēng)暴搜索引擎”提交查詢(例如一個(gè)目標(biāo)知識(shí)點(diǎn))。查詢擴(kuò)展模塊將輸入轉(zhuǎn)化為關(guān)鍵詞,從“長(zhǎng)鏈思維(LCoT)知識(shí)庫(kù)”中檢索相關(guān)的長(zhǎng)鏈推導(dǎo)。這些推導(dǎo)代表科學(xué)推理的“暗物質(zhì)”,隨后按其相關(guān)性與跨學(xué)科意義進(jìn)行排序。排序后的長(zhǎng)鏈推導(dǎo)為大模型綜合器(柏拉圖智能體)提供可驗(yàn)證的“推理腳手架”。在用戶的初始查詢與可選風(fēng)格指南的引導(dǎo)下,柏拉圖智能體將這些已驗(yàn)證的推導(dǎo)綜合成一篇連貫、教學(xué)清晰的文章。該架構(gòu)實(shí)現(xiàn)“逆向知識(shí)搜索”,將搜索轉(zhuǎn)變?yōu)榘l(fā)現(xiàn)過(guò)程,揭示科學(xué)概念的起源與相互關(guān)聯(lián),并通過(guò)扎根于 LCoT 知識(shí)庫(kù)來(lái)抑制幻覺(jué)。

柏拉圖智能體以 “跨領(lǐng)域推理支架” 為基礎(chǔ) —— 合成內(nèi)容的創(chuàng)意源于搜索過(guò)程中發(fā)現(xiàn)的 “經(jīng)過(guò)驗(yàn)證的驚喜關(guān)聯(lián)”;同時(shí),大幅降低了 “幻覺(jué)” 風(fēng)險(xiǎn)。在柏拉圖智能體中,LLM 的角色從 “純生成者” 轉(zhuǎn)變?yōu)?“敘述者”,其核心任務(wù)是在已驗(yàn)證的概念間搭建 “敘事橋梁”,而非創(chuàng)造新的概念。

研究團(tuán)隊(duì)在六個(gè)科學(xué)學(xué)科中,將柏拉圖智能體生成的文章(基于檢索到的 LCoT 支架)與 “無(wú)檢索的 LLM 基準(zhǔn)模型”(使用相同提示但無(wú) LCoT 上下文)進(jìn)行對(duì)比。結(jié)果顯示(如圖 3),柏拉圖智能體生成的文章,在 “知識(shí)點(diǎn)密度” 上顯著更高,同時(shí) “事實(shí)錯(cuò)誤率” 降低了約 50% 。


圖3. (a) 知識(shí)點(diǎn)密度對(duì)比:該圖比較了在相同主題集合下,兩種方法生成的文章中所包含的可學(xué)習(xí)、獨(dú)立知識(shí)點(diǎn)的數(shù)量。二者使用幾乎完全相同的提示詞,唯一差別在于是否提供已驗(yàn)證的 LCoT 上下文。LLM 基線模型未獲得任何檢索到的 LCoT 上下文(空集),而 Plato 智能體則通過(guò) Brainstorm 搜索引擎獲取 LCoT 語(yǔ)料來(lái)綜合文章。在所有被測(cè)試的科學(xué)領(lǐng)域中,Plato 智能體生成的文章知識(shí)點(diǎn)密度顯著更高,表明文中的綜合方法在深度與全面性上優(yōu)于基線。(b) 事實(shí)錯(cuò)誤率對(duì)比:該圖評(píng)估了兩種方法在幾乎相同提示詞下生成文章的事實(shí)可靠性(由 GPT-5 評(píng)定)。LLM 基線模型因未獲得任何 LCoT 上下文,出現(xiàn)高錯(cuò)誤率,體現(xiàn)出模型幻覺(jué)問(wèn)題。相比之下,Plato 智能體以檢索到的已驗(yàn)證 LCoT 語(yǔ)料為依據(jù)進(jìn)行綜合,在所有領(lǐng)域均實(shí)現(xiàn)顯著更低的錯(cuò)誤率。這凸顯了文中方法在產(chǎn)出高可信度科學(xué)內(nèi)容方面的有效性。

SciencePedia:

從長(zhǎng)思維鏈中 “生長(zhǎng)” 的科學(xué)百科

由蘇格拉底智能體構(gòu)建的可驗(yàn)證 LCoT 知識(shí)庫(kù),最終催生出了一項(xiàng)重要應(yīng)用——SciencePedia,一部全面的、跨學(xué)科的STEM百科全書。其核心假設(shè)是:足夠龐大且多樣的 LCoT-QA 對(duì)集合(每個(gè)都包含從第一性原理出發(fā)的推理過(guò)程),會(huì)自然形成一個(gè)密集的知識(shí)網(wǎng)絡(luò)——這些連接并非預(yù)先定義的形式化圖譜,而是從推導(dǎo)內(nèi)容中自然涌現(xiàn)。

生成SciencePedia百科全書頁(yè)面的過(guò)程是一個(gè)確定性的工作流:利用基于頭腦風(fēng)暴搜索引擎的柏拉圖智能體,將原始的長(zhǎng)鏈思維問(wèn)答對(duì)轉(zhuǎn)化為結(jié)構(gòu)化的敘述。百科全書的結(jié)構(gòu)源于蘇格拉底智能體知識(shí)生成階段定義的課程體系。每個(gè)關(guān)鍵詞都對(duì)應(yīng)一個(gè)獨(dú)特的百科頁(yè)面,頁(yè)面包括“What & Why” 部分構(gòu)成的 “原理與機(jī)制” 核心章節(jié),“How” 部分形成的 “跨領(lǐng)域應(yīng)用” 章節(jié)。

與直接查詢 LLM 或依賴傳統(tǒng)百科相比,SciencePedia的知識(shí)點(diǎn)密度更高,可靠性更強(qiáng),解釋深度更優(yōu),能系統(tǒng)性覆蓋跨領(lǐng)域關(guān)聯(lián),也解決了傳統(tǒng)維基百科 “規(guī)?;?與 “語(yǔ)言一致性” 的問(wèn)題。

為了驗(yàn)證SciencePedia的跨學(xué)科關(guān)聯(lián)性,研究團(tuán)隊(duì)還對(duì)其關(guān)鍵詞網(wǎng)絡(luò)進(jìn)行了大規(guī)模分析,發(fā)現(xiàn)不同社區(qū)(學(xué)科領(lǐng)域)間存在大量非平凡連接,這為SciencePedia捕捉跨領(lǐng)域關(guān)聯(lián)的能力提供了直接實(shí)證(如圖 4)。


圖4. 關(guān)鍵詞圖譜的層級(jí)結(jié)構(gòu)。作者應(yīng)用模塊度置信傳播算法對(duì)120,226個(gè)關(guān)鍵詞節(jié)點(diǎn)進(jìn)行聚類。該過(guò)程識(shí)別出7,454個(gè)基礎(chǔ)社區(qū),并形成了一個(gè)橫跨21個(gè)層級(jí)的層次結(jié)構(gòu)。為展示該結(jié)構(gòu),節(jié)點(diǎn)在每個(gè)層級(jí)逐步粗化為聚類節(jié)點(diǎn)。左圖顯示了第3層的聚合結(jié)果,右圖顯示了第5層的聚合結(jié)果。圖表通過(guò)graph-tool軟件包生成,社區(qū)標(biāo)題由大語(yǔ)言模型進(jìn)行歸納總結(jié)。

結(jié)語(yǔ):

從 “解壓縮” 知識(shí)到構(gòu)建協(xié)作式知識(shí)生態(tài)

這項(xiàng)研究的核心,是解決了現(xiàn)有知識(shí)體系的根本局限 ——“推理壓縮”。研究團(tuán)隊(duì)通過(guò)構(gòu)建基于第一性原理的 LCoT 知識(shí)庫(kù)、開(kāi)發(fā)反向知識(shí)搜索的頭腦風(fēng)暴搜索引擎、設(shè)計(jì)低幻覺(jué)的柏拉圖合成器,最終打造出 SciencePedia 這一 “涌現(xiàn)式” 科學(xué)百科。這套框架的價(jià)值,不僅在于生成了規(guī)模龐大的可靠知識(shí),更在于它讓知識(shí)回歸 “推理驅(qū)動(dòng)”,解鎖了被埋沒(méi)的跨領(lǐng)域 “暗物質(zhì)”。

不過(guò),SciencePedia當(dāng)前涵蓋數(shù)學(xué)、物理、化學(xué)、生物學(xué)、工程學(xué)與計(jì)算機(jī)科學(xué),其內(nèi)容以客觀事實(shí)與邏輯推理為主,暫缺科學(xué)史等人文相關(guān)信息;同時(shí),知識(shí)邊界受限于基礎(chǔ)模型的訓(xùn)練數(shù)據(jù),無(wú)法覆蓋最新的科學(xué)前沿。未來(lái),研究團(tuán)隊(duì)計(jì)劃將 LCoT 方法應(yīng)用于教科書、同行評(píng)議論文等其他高質(zhì)量語(yǔ)料,以補(bǔ)充科學(xué)史內(nèi)容、更新前沿研究,并將覆蓋范圍擴(kuò)展到天文學(xué)、地理學(xué)、經(jīng)濟(jì)學(xué)等其他自然科學(xué)領(lǐng)域,打造真正全面且動(dòng)態(tài)的科學(xué)資源。

從某種意義上說(shuō),SciencePedia 的誕生,不僅是一次技術(shù)突破,更是對(duì) “知識(shí)本質(zhì)” 的回歸 —— 它讓科學(xué)不再是孤立結(jié)論的堆砌,而是相互關(guān)聯(lián)、可追溯、可探索的推理網(wǎng)絡(luò)。這或許正是未來(lái)科學(xué)知識(shí)傳播與創(chuàng)新的核心方向:讓每個(gè)人都能觸達(dá)知識(shí)的 “暗物質(zhì)”,讓跨領(lǐng)域的洞見(jiàn)不再被學(xué)科壁壘埋沒(méi)。

大模型2.0讀書會(huì)

o1模型代表大語(yǔ)言模型融合學(xué)習(xí)與推理的新范式。集智俱樂(lè)部聯(lián)合北京師范大學(xué)系統(tǒng)科學(xué)學(xué)院教授張江、Google DeepMind研究科學(xué)家馮熙棟、阿里巴巴強(qiáng)化學(xué)習(xí)研究員王維塤和中科院信工所張杰共同發(fā)起,本次讀書會(huì)將關(guān)注大模型推理范式的演進(jìn)、基于搜索與蒙特卡洛樹(shù)的推理優(yōu)化、基于強(qiáng)化學(xué)習(xí)的大模型優(yōu)化、思維鏈方法與內(nèi)化機(jī)制、自我改進(jìn)與推理驗(yàn)證。希望通過(guò)讀書會(huì)探索o1具體實(shí)現(xiàn)的技術(shù)路徑,幫助我們更好的理解機(jī)器推理和人工智能的本質(zhì)。讀書會(huì)已完結(jié),現(xiàn)在報(bào)名可加入社群并解鎖回放視頻權(quán)限。

詳情請(qǐng)見(jiàn):

1.

2.

3.

4.

5.

6.

聲明:包含AI生成內(nèi)容

特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺(tái)“網(wǎng)易號(hào)”用戶上傳并發(fā)布,本平臺(tái)僅提供信息存儲(chǔ)服務(wù)。

Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.

相關(guān)推薦
熱點(diǎn)推薦
淺析:第160特種作戰(zhàn)航空?qǐng)F(tuán)為何派MH-6“小鳥”攔截俄羅斯油輪?

淺析:第160特種作戰(zhàn)航空?qǐng)F(tuán)為何派MH-6“小鳥”攔截俄羅斯油輪?

hawk26講武堂
2026-01-08 13:55:28
郭正亮見(jiàn)2026民調(diào)“非常麻煩”:國(guó)民黨要正視目前氛圍

郭正亮見(jiàn)2026民調(diào)“非常麻煩”:國(guó)民黨要正視目前氛圍

新時(shí)光點(diǎn)滴
2026-01-08 01:33:31
跨年僅3天,具俊曄撕破汪小菲面子,馬筱梅悲慘出局!

跨年僅3天,具俊曄撕破汪小菲面子,馬筱梅悲慘出局!

瓜汁橘長(zhǎng)Dr
2026-01-07 17:20:23
新加坡識(shí)時(shí)務(wù)了,嗆聲特朗普是“潑猴”,只有中國(guó)的緊箍咒能治他

新加坡識(shí)時(shí)務(wù)了,嗆聲特朗普是“潑猴”,只有中國(guó)的緊箍咒能治他

通文知史
2026-01-07 20:35:03
1976年毛主席追悼會(huì)后,葉帥密會(huì)許世友,只問(wèn)了一句話,南京軍區(qū)的指揮權(quán)到底在誰(shuí)手里?

1976年毛主席追悼會(huì)后,葉帥密會(huì)許世友,只問(wèn)了一句話,南京軍區(qū)的指揮權(quán)到底在誰(shuí)手里?

文史明鑒
2026-01-04 18:33:13
解放軍最絕一招,詐出意外驚喜?臺(tái)退將:臺(tái)軍戰(zhàn)機(jī)都來(lái)不及起飛

解放軍最絕一招,詐出意外驚喜?臺(tái)退將:臺(tái)軍戰(zhàn)機(jī)都來(lái)不及起飛

樂(lè)天閑聊
2026-01-06 14:40:55
超級(jí)大國(guó)的最后遺產(chǎn)!美媒:中國(guó)獲得3架頂級(jí)戰(zhàn)機(jī),成就超俄趕美

超級(jí)大國(guó)的最后遺產(chǎn)!美媒:中國(guó)獲得3架頂級(jí)戰(zhàn)機(jī),成就超俄趕美

墨蘭史書
2025-12-06 16:55:04
穆帥:祝愿球員們今晚睡得和我一樣“香”,也就是徹夜難眠

穆帥:祝愿球員們今晚睡得和我一樣“香”,也就是徹夜難眠

懂球帝
2026-01-08 20:45:08
300億大案!公安部出手,這幫吃人不吐骨頭的“吸血鬼”終于涼了

300億大案!公安部出手,這幫吃人不吐骨頭的“吸血鬼”終于涼了

泠泠說(shuō)史
2026-01-06 18:56:19
太適合廣東隊(duì)!NBA級(jí)內(nèi)線大殺器被裁,這可是杜鋒的第5外援首選?

太適合廣東隊(duì)!NBA級(jí)內(nèi)線大殺器被裁,這可是杜鋒的第5外援首選?

緋雨兒
2026-01-08 13:23:11
Shams:老鷹交易特雷-楊后獲得了薪資靈活性,更便于交易濃眉

Shams:老鷹交易特雷-楊后獲得了薪資靈活性,更便于交易濃眉

懂球帝
2026-01-08 11:14:09
司曉迪風(fēng)波再升級(jí)!曬出開(kāi)房記錄以證真實(shí),男明星的澄清漏洞百出

司曉迪風(fēng)波再升級(jí)!曬出開(kāi)房記錄以證真實(shí),男明星的澄清漏洞百出

觀察鑒娛
2026-01-08 11:08:05
中國(guó)學(xué)者談“馬杜羅事件”:美國(guó)戰(zhàn)略調(diào)整的漣漪將對(duì)2026年中國(guó)周邊形勢(shì)帶來(lái)風(fēng)險(xiǎn)

中國(guó)學(xué)者談“馬杜羅事件”:美國(guó)戰(zhàn)略調(diào)整的漣漪將對(duì)2026年中國(guó)周邊形勢(shì)帶來(lái)風(fēng)險(xiǎn)

澎湃新聞
2026-01-07 18:40:26
回顧“91女神”琪琪:五官出眾,卻因天真讓自己“受傷”

回顧“91女神”琪琪:五官出眾,卻因天真讓自己“受傷”

就一點(diǎn)
2025-11-22 10:36:39
法德波呼吁歐盟:迅速與印度簽署自貿(mào)協(xié)定

法德波呼吁歐盟:迅速與印度簽署自貿(mào)協(xié)定

參考消息
2026-01-08 21:48:05
日本右翼終于閉嘴了!解放軍給美軍前所未有的待遇,把高市看懵了,這世界從來(lái)沒(méi)有以德服人,只有以武服人

日本右翼終于閉嘴了!解放軍給美軍前所未有的待遇,把高市看懵了,這世界從來(lái)沒(méi)有以德服人,只有以武服人

軍霆說(shuō)
2025-12-30 04:25:11
體制內(nèi),只要搞男女不正當(dāng)關(guān)系,廉潔肯定出問(wèn)題,一查一個(gè)準(zhǔn)

體制內(nèi),只要搞男女不正當(dāng)關(guān)系,廉潔肯定出問(wèn)題,一查一個(gè)準(zhǔn)

細(xì)說(shuō)職場(chǎng)
2026-01-06 12:04:22
越南不恨美國(guó),不恨日本,連殖民幾十年的法國(guó)都不恨,就只恨中國(guó)

越南不恨美國(guó),不恨日本,連殖民幾十年的法國(guó)都不恨,就只恨中國(guó)

我心縱橫天地間
2026-01-07 19:17:18
教練競(jìng)聘完畢,最痛心的不是馬琳和王皓,而是男乒中流砥柱離開(kāi)了

教練競(jìng)聘完畢,最痛心的不是馬琳和王皓,而是男乒中流砥柱離開(kāi)了

寒士之言本尊
2026-01-08 12:58:47
不打不相識(shí),張稀哲曾在亞冠聯(lián)賽中放倒國(guó)安新帥蒙哥馬利

不打不相識(shí),張稀哲曾在亞冠聯(lián)賽中放倒國(guó)安新帥蒙哥馬利

懂球帝
2026-01-08 11:50:35
2026-01-08 22:07:00
集智俱樂(lè)部 incentive-icons
集智俱樂(lè)部
科普人工智能相關(guān)知識(shí)技能
5593文章數(shù) 4661關(guān)注度
往期回顧 全部

科技要聞

智譜拿下“全球大模型第一股”,憑什么

頭條要聞

19歲小伙在柬疑被16萬(wàn)轉(zhuǎn)賣 與母親視頻時(shí)按"酒窩"求救

頭條要聞

19歲小伙在柬疑被16萬(wàn)轉(zhuǎn)賣 與母親視頻時(shí)按"酒窩"求救

體育要聞

世乒賽銀牌得主,說(shuō)自己夢(mèng)里都是孫穎莎

娛樂(lè)要聞

抗戰(zhàn)劇《馬背搖籃》首播,獲觀眾好評(píng)

財(cái)經(jīng)要聞

微軟CTO韋青:未來(lái)人類會(huì)花錢"戒手機(jī)"

汽車要聞

從量變到"智"變 吉利在CES打出了五張牌

態(tài)度原創(chuàng)

本地
親子
手機(jī)
公開(kāi)課
軍事航空

本地新聞

1986-2026,一通電話的時(shí)空旅程

親子要聞

為兒童手表立規(guī),只是守衛(wèi)成長(zhǎng)的第一步

手機(jī)要聞

一加手機(jī)2025年銷量增速位居行業(yè)第一:一加15/Ace 6銷量創(chuàng)新高

公開(kāi)課

李玫瑾:為什么性格比能力更重要?

軍事要聞

特朗普提出將美國(guó)軍費(fèi)提升至1.5萬(wàn)億美元

無(wú)障礙瀏覽 進(jìn)入關(guān)懷版