国产av一二三区|日本不卡动作网站|黄色天天久久影片|99草成人免费在线视频|AV三级片成人电影在线|成年人aV不卡免费播放|日韩无码成人一级片视频|人人看人人玩开心色AV|人妻系列在线观看|亚洲av无码一区二区三区在线播放

網(wǎng)易首頁 > 網(wǎng)易號 > 正文 申請入駐

FaceMind公司發(fā)現(xiàn)語言頻率的秘密:高頻詞匯讓AI更聰明

0
分享至

這項由FaceMind公司和香港中文大學(xué)聯(lián)合完成的研究發(fā)表于2026年4月,研究者們提出了一個頗具開創(chuàng)性的"文本頻率定律"(Adam's Law),揭示了一個有趣的現(xiàn)象:當(dāng)我們用更常見的詞匯與大語言模型對話時,它們的表現(xiàn)會顯著提升。這項研究通過arXiv:2604.02176v1可以查詢到完整內(nèi)容。


研究團(tuán)隊發(fā)現(xiàn),就像人類在閱讀時對常見詞匯反應(yīng)更快一樣,大語言模型在處理高頻率出現(xiàn)的文本時也表現(xiàn)得更加出色。他們構(gòu)建了一套完整的理論框架和實驗驗證體系,在數(shù)學(xué)推理、機(jī)器翻譯、常識推理和工具調(diào)用等多個任務(wù)中都證實了這一規(guī)律的有效性。

這個發(fā)現(xiàn)的意義遠(yuǎn)不止學(xué)術(shù)層面。在當(dāng)今AI應(yīng)用日益普及的時代,如何讓人工智能更好地理解和響應(yīng)我們的需求成為了一個關(guān)鍵問題。研究團(tuán)隊通過大量實驗證明,簡單地調(diào)整我們使用的詞匯頻率,就能讓AI的準(zhǔn)確率提升8到15個百分點,這對于實際應(yīng)用來說是一個相當(dāng)可觀的改進(jìn)。

一、語言的頻率密碼

日常生活中,我們都有這樣的經(jīng)驗:讀到"的"、"是"、"在"這樣的常見字詞時幾乎不需要思考,而遇到"矍鑠"、"躊躇"這樣的生僻詞匯就需要停頓一下。研究團(tuán)隊發(fā)現(xiàn),大語言模型也有類似的特征。

FaceMind公司的研究者們提出了"文本頻率定律"這一核心理論。簡單來說,當(dāng)兩個句子表達(dá)相同意思但使用不同詞匯時,使用更常見詞匯的句子會讓AI模型表現(xiàn)得更好。這就好比兩個人用不同方式問路,一個說"請問銀行怎么走",另一個說"請問金融機(jī)構(gòu)的地理位置如何抵達(dá)",雖然意思相同,但前者顯然更容易被理解和回應(yīng)。

為了驗證這個理論,研究團(tuán)隊開發(fā)了一個巧妙的方法來估算句子層面的頻率。他們發(fā)現(xiàn),由于許多AI模型的訓(xùn)練數(shù)據(jù)都是保密的,無法直接獲取詞匯頻率信息,因此需要依靠公開的網(wǎng)絡(luò)資源來估算。這就像偵探無法直接獲得犯罪現(xiàn)場的完整信息,只能通過各種線索來推斷真相一樣。

研究團(tuán)隊將句子頻率定義為組成這個句子的所有詞匯頻率的幾何平均值。這種計算方式雖然簡化了詞匯之間的復(fù)雜關(guān)系,但能夠有效地反映出一個句子整體的"常見程度"。就像評估一道菜的受歡迎程度時,我們會綜合考慮每種食材的常見性,最終得出這道菜的"大眾化"程度。

二、讓AI更聰明的三個法寶

為了讓這個理論更加實用,研究團(tuán)隊開發(fā)了三個相互配合的方法,就像烹飪中的三道工序,每一步都為最終的美味佳肴做出貢獻(xiàn)。

第一個方法叫做"文本頻率提取"。由于我們無法知道AI模型具體看過哪些訓(xùn)練數(shù)據(jù),研究團(tuán)隊通過讓模型完成故事續(xù)寫任務(wù)來間接獲取這些信息。他們給模型一些句子開頭,讓它自由續(xù)寫,然后分析續(xù)寫內(nèi)容中詞匯的使用頻率。這就像通過觀察一個人的說話習(xí)慣來推斷他平時都讀什么書一樣。通過這種方法,他們能夠更準(zhǔn)確地估算不同詞匯在模型"記憶"中的重要程度。

具體來說,研究團(tuán)隊會給AI模型這樣的指令:"請對以下數(shù)據(jù)進(jìn)行故事續(xù)寫:某某句子",然后收集模型生成的內(nèi)容。這些生成的文本實際上反映了模型在訓(xùn)練過程中學(xué)到的語言模式,因此可以作為估算詞匯頻率的重要依據(jù)。這種方法雖然需要額外的計算成本,但能夠顯著提高頻率估算的準(zhǔn)確性。

第二個方法被稱為"課程式文本頻率訓(xùn)練"。這個名字聽起來很復(fù)雜,但原理很簡單:就像教小孩子學(xué)習(xí)時要從簡單到復(fù)雜一樣,訓(xùn)練AI模型時也要按照從低頻率到高頻率的順序來安排學(xué)習(xí)材料。研究發(fā)現(xiàn),這種訓(xùn)練方式能夠讓模型更好地理解語言的內(nèi)在規(guī)律。

在實際操作中,研究團(tuán)隊會首先計算訓(xùn)練數(shù)據(jù)中每個句子的頻率分?jǐn)?shù),然后按照頻率從低到高的順序重新排列這些數(shù)據(jù)。這樣,模型在學(xué)習(xí)過程中會逐漸從處理相對生僻的表達(dá)轉(zhuǎn)向更常見的表達(dá)方式,就像學(xué)生從解決簡單問題開始,逐步挑戰(zhàn)更復(fù)雜的題目。

第三個方法則是在實際應(yīng)用時選擇高頻率的表達(dá)方式。當(dāng)我們需要與AI模型交互時,研究團(tuán)隊建議使用一個"輸入改寫器"來將我們的問題轉(zhuǎn)換成更常見的表達(dá)方式。比如,將"請協(xié)助我完成數(shù)學(xué)運算"改寫為"請幫我算數(shù)學(xué)題",雖然意思完全相同,但后者使用的都是更常見的詞匯,因此能夠獲得更好的回應(yīng)效果。

三、覆蓋百種語言的大規(guī)模實驗

為了驗證理論的有效性,研究團(tuán)隊進(jìn)行了一系列規(guī)模龐大的實驗,涉及數(shù)學(xué)推理、機(jī)器翻譯、常識推理和智能工具調(diào)用等多個領(lǐng)域。他們的實驗覆蓋了100種不同的語言,這在人工智能研究中是相當(dāng)罕見的。

在數(shù)學(xué)推理任務(wù)中,研究團(tuán)隊使用了GSM8K數(shù)學(xué)題庫,這是一個包含小學(xué)到中學(xué)水平數(shù)學(xué)應(yīng)用題的標(biāo)準(zhǔn)測試集。他們將每個數(shù)學(xué)題都改寫成高頻率和低頻率兩個版本,然后分別測試不同AI模型的解答準(zhǔn)確率。結(jié)果顯示,使用高頻率表達(dá)的數(shù)學(xué)題在所有測試的模型上都獲得了更高的正確率。

以DeepSeek-V3模型為例,當(dāng)使用低頻率表達(dá)時,數(shù)學(xué)題的正確率為63.55%,而使用高頻率表達(dá)時,正確率提升到了71.54%,提升幅度達(dá)到8個百分點。對于GPT-4o-mini模型,提升幅度更是達(dá)到了8個百分點,從60.70%提升到68.70%。這種改進(jìn)對于實際應(yīng)用來說是非常顯著的。

機(jī)器翻譯實驗的規(guī)模更加驚人。研究團(tuán)隊測試了從英語翻譯到其他100種語言的效果,使用了BLEU、chrF和COMET等多種評估指標(biāo)。實驗結(jié)果顯示,在DeepSeek-V3模型上,99%的語言對在使用高頻率輸入時都獲得了更好的翻譯效果。其中,63個語言對的BLEU分?jǐn)?shù)提升超過1分,31個語言對提升超過3分,12個語言對甚至提升超過5分。

特別值得注意的是,研究團(tuán)隊還發(fā)現(xiàn)了一個有趣的現(xiàn)象:當(dāng)一個句子對的低頻率版本能夠被模型正確處理時,其高頻率版本也同樣能夠被正確處理。但是,當(dāng)?shù)皖l率版本無法被正確處理時,使用高頻率版本往往能夠獲得正確的結(jié)果。這說明高頻率表達(dá)確實能夠幫助模型更好地理解和處理信息。

四、構(gòu)建專門的測試數(shù)據(jù)集

為了支撐這項研究,團(tuán)隊專門構(gòu)建了一個名為"文本頻率配對數(shù)據(jù)集"(TFPD)的測試集合。這個數(shù)據(jù)集的創(chuàng)建過程本身就是一項精密的工程。

研究團(tuán)隊首先從現(xiàn)有的標(biāo)準(zhǔn)數(shù)據(jù)集中選取了原始句子,包括GSM8K數(shù)學(xué)題庫、FLORES-200多語言翻譯數(shù)據(jù)庫和CommonsenseQA常識問答數(shù)據(jù)庫。然后,他們使用GPT-4o-mini模型來生成每個句子的多個改寫版本。為了確保改寫質(zhì)量,他們制定了詳細(xì)的指令模板:"我的目標(biāo)是將原始句子轉(zhuǎn)換為常見表達(dá)和不常見表達(dá)兩種形式。注意:不要省略任何詞匯,如動詞、形容詞、名詞或副詞。你必須生成兩種類型的句子:十個使用不常見、復(fù)雜詞匯的句子,以及十個使用常見、簡單詞匯的句子。"

生成改寫版本后,研究團(tuán)隊采用了嚴(yán)格的人工驗證流程。他們聘請了三位具有英語語言學(xué)相關(guān)學(xué)位的經(jīng)驗豐富的標(biāo)注員,對每組改寫句子進(jìn)行意義一致性檢查。只有當(dāng)所有三位標(biāo)注員都認(rèn)為句子表達(dá)相同意思時,這組句子才會被納入最終的數(shù)據(jù)集。標(biāo)注員需要從三個選項中選擇:"相同意義:我相信這三個句子表達(dá)相同的意思","可能相同意義:這三個句子可能表達(dá)相同意思,但我可能錯誤","不同意義:我確信這三個句子表達(dá)不同意思"。

經(jīng)過這種嚴(yán)格的篩選過程,研究團(tuán)隊最終從1319個原始GSM8K測試樣本中獲得了738個高質(zhì)量的句子對,從1012個FLORES-200樣本中獲得了526個句子對。這些數(shù)據(jù)集為后續(xù)的實驗提供了可靠的基礎(chǔ)。

五、深入的理論分析和數(shù)學(xué)證明

除了大量的實驗驗證,研究團(tuán)隊還提供了嚴(yán)格的數(shù)學(xué)理論分析。他們基于著名的齊普夫定律(Zipf's Law)構(gòu)建了完整的理論框架,從數(shù)學(xué)角度解釋為什么高頻率文本能夠獲得更好的模型表現(xiàn)。

齊普夫定律是語言學(xué)中的一個重要規(guī)律,它描述了詞匯頻率的分布特征:在任何語言的大型文本集合中,第r個最常見詞匯的出現(xiàn)頻率大約是最常見詞匯頻率的1/r。研究團(tuán)隊將這個規(guī)律引入到語言模型的損失函數(shù)分析中,建立了"標(biāo)記級別的半對數(shù)線性關(guān)系"。

簡單來說,他們證明了模型在處理某個詞匯時的"困惑度"(可以理解為模型的"困難程度")與這個詞匯的頻率排名的對數(shù)值呈線性關(guān)系。這意味著,排名靠前的高頻詞匯會讓模型感到更"容易"處理,而排名靠后的低頻詞匯則會增加模型的處理難度。

研究團(tuán)隊進(jìn)一步將這個標(biāo)記級別的結(jié)論擴(kuò)展到句子級別。他們將句子級別的頻率定義為組成句子的所有詞匯頻率的幾何平均值,然后證明了在一定條件下,使用高頻率詞匯的句子確實會獲得更低的模型損失值,從而帶來更好的任務(wù)表現(xiàn)。

這個理論分析包含了四個核心假設(shè):詞匯頻率遵循齊普夫定律,模型訓(xùn)練后的參數(shù)能夠較好地逼近真實的詞匯頻率分布,邊際概率和條件概率之間的差異是有界的,以及句子頻率可以通過詞匯頻率的幾何平均來近似。雖然這些假設(shè)在實際情況中可能不完全成立,但研究團(tuán)隊通過大量實驗證明了理論預(yù)測與實際結(jié)果高度一致。

六、課程學(xué)習(xí)的新應(yīng)用

研究中一個特別有趣的發(fā)現(xiàn)是課程式訓(xùn)練方法的效果。傳統(tǒng)的課程學(xué)習(xí)通常按照任務(wù)難度從易到難安排學(xué)習(xí)順序,而這項研究提出了按照文本頻率從低到高的新型課程學(xué)習(xí)方式。

在機(jī)器翻譯任務(wù)的微調(diào)實驗中,研究團(tuán)隊比較了幾種不同的訓(xùn)練策略。傳統(tǒng)的方法是隨機(jī)打亂訓(xùn)練數(shù)據(jù)的順序,而新的課程式文本頻率訓(xùn)練方法則按照句子頻率分?jǐn)?shù)對訓(xùn)練數(shù)據(jù)重新排序。實驗結(jié)果顯示,使用課程式訓(xùn)練的方法在所有測試語言上都獲得了最好的效果。

以Pangasinan語(pag_Latn)翻譯為例,使用原始訓(xùn)練數(shù)據(jù)的BLEU分?jǐn)?shù)為4.5129,而使用高頻率數(shù)據(jù)但沒有課程訓(xùn)練的分?jǐn)?shù)為3.7781,但采用課程式文本頻率訓(xùn)練后,分?jǐn)?shù)躍升至4.9102,提升幅度達(dá)到29.96%。這種顯著的改進(jìn)在多種評估指標(biāo)和不同語言中都得到了驗證。

研究團(tuán)隊解釋說,這種訓(xùn)練方式的效果可能源于語言學(xué)習(xí)的自然規(guī)律。就像兒童在學(xué)習(xí)語言時會先掌握常見詞匯,然后逐漸學(xué)會表達(dá)復(fù)雜概念一樣,讓AI模型按照這種順序?qū)W習(xí)可能更符合語言習(xí)得的內(nèi)在規(guī)律。

七、跨語言的普遍性驗證

研究的另一個重要貢獻(xiàn)是驗證了文本頻率定律的跨語言普遍性。研究團(tuán)隊的實驗涵蓋了100種不同的語言,包括高資源語言如英語、中文、西班牙語,也包括低資源語言如Kabuverdianu、Kikuyu、Pangasinan等。

根據(jù)語言資源的豐富程度分類,研究中超過一半的語言屬于相對低資源的類別(0類或1類語言)。即使在這些訓(xùn)練數(shù)據(jù)相對稀少的語言上,文本頻率定律依然顯示出了顯著的效果。這說明該定律并非僅僅適用于數(shù)據(jù)豐富的主流語言,而是一個更為普遍的語言學(xué)規(guī)律。

在具體的實驗結(jié)果中,研究團(tuán)隊發(fā)現(xiàn)了一些有趣的模式。對于語法結(jié)構(gòu)相對簡單的語言,高頻率文本的改進(jìn)效果通常更為明顯。而對于語法復(fù)雜、詞匯變化豐富的語言,雖然改進(jìn)幅度相對較小,但依然能夠觀察到統(tǒng)計學(xué)上顯著的提升。

特別值得注意的是,研究團(tuán)隊還分析了不同語言中高頻率和低頻率文本在復(fù)雜度指標(biāo)上的差異。他們使用了最大依存樹深度、平均依存距離和Flesch-Kincaid等級水平等指標(biāo)來衡量句子的語法和語義復(fù)雜度。結(jié)果顯示,高頻率文本通常具有較低的語法復(fù)雜度,這與人類語言使用的習(xí)慣是一致的:我們在日常交流中傾向于使用結(jié)構(gòu)簡單、易于理解的表達(dá)方式。

八、實際應(yīng)用的巨大潛力

這項研究的價值遠(yuǎn)遠(yuǎn)超出了學(xué)術(shù)范疇,它為改進(jìn)人工智能系統(tǒng)的實際表現(xiàn)提供了一條清晰可行的路徑。在當(dāng)前AI應(yīng)用快速發(fā)展的背景下,這些發(fā)現(xiàn)具有直接的實用價值。

對于需要與AI系統(tǒng)交互的普通用戶來說,了解文本頻率定律意味著他們可以通過調(diào)整表達(dá)方式來獲得更好的AI服務(wù)體驗。比如,在使用AI助手進(jìn)行數(shù)學(xué)計算時,說"幫我算這道題"比"請協(xié)助我進(jìn)行數(shù)學(xué)運算"更容易獲得準(zhǔn)確的結(jié)果。在使用翻譯軟件時,使用簡單常見的詞匯比使用復(fù)雜生僻的表達(dá)更容易得到高質(zhì)量的翻譯。

對于AI系統(tǒng)的開發(fā)者和研究人員來說,這項研究提供了一個全新的優(yōu)化思路。傳統(tǒng)的模型改進(jìn)通常需要增加模型參數(shù)、擴(kuò)大訓(xùn)練數(shù)據(jù)或改進(jìn)算法架構(gòu),這些方法往往需要大量的計算資源和時間投入。而文本頻率定律提供了一種幾乎零成本的改進(jìn)方案:只需要在輸入處理階段增加一個文本改寫模塊,就能顯著提升模型的表現(xiàn)。

研究團(tuán)隊還探索了將文本頻率定律應(yīng)用于模型訓(xùn)練過程的可能性。他們發(fā)現(xiàn),使用高頻率文本進(jìn)行微調(diào)不僅能夠提升模型在特定任務(wù)上的表現(xiàn),還能夠減少訓(xùn)練時間和計算成本。這對于資源有限的研究團(tuán)隊或初創(chuàng)公司來說具有重要的實用價值。

九、深度分析和關(guān)聯(lián)研究

為了更全面地理解文本頻率定律的機(jī)制,研究團(tuán)隊進(jìn)行了多項深度分析。他們發(fā)現(xiàn),模型對高頻率文本的偏好與人類的語言處理模式存在驚人的相似性。神經(jīng)科學(xué)研究表明,人類大腦在處理高頻詞匯時會激活不同的神經(jīng)網(wǎng)絡(luò),這些詞匯的處理速度更快、準(zhǔn)確率更高。

研究團(tuán)隊還分析了思維鏈推理過程的變化。他們發(fā)現(xiàn),當(dāng)使用高頻率文本作為輸入時,AI模型生成的推理過程不僅更加準(zhǔn)確,而且更容易被人類理解。在數(shù)學(xué)推理任務(wù)中,使用高頻率表達(dá)的問題產(chǎn)生的推理鏈在chrF得分上從18.823提升到32.873,ROUGE分?jǐn)?shù)從0.175提升到0.310,BERTScore從0.492提升到0.838。這些指標(biāo)的全面提升表明,文本頻率不僅影響最終答案的準(zhǔn)確性,還影響整個推理過程的質(zhì)量。

研究團(tuán)隊通過相關(guān)性分析發(fā)現(xiàn)了一個重要規(guī)律:在某些語言中,文本頻率與最終翻譯性能之間的相關(guān)系數(shù)高達(dá)1.0,這意味著幾乎完全的正相關(guān)關(guān)系。這種強(qiáng)相關(guān)性進(jìn)一步證實了文本頻率定律的可靠性和普遍性。

另一個有趣的發(fā)現(xiàn)是,文本頻率與傳統(tǒng)的文本復(fù)雜度指標(biāo)之間的相關(guān)性相對較弱。這說明文本頻率定律不能簡單地等同于"使用簡單語言"的建議,而是一個更加精細(xì)和科學(xué)的指導(dǎo)原則。高頻率文本不一定意味著內(nèi)容簡單,而是意味著使用了更常見、更容易被模型理解的詞匯組合。

十、技術(shù)實現(xiàn)的細(xì)節(jié)和挑戰(zhàn)

雖然文本頻率定律的概念相對簡單,但其技術(shù)實現(xiàn)涉及多個復(fù)雜的環(huán)節(jié)。首先是頻率估算的準(zhǔn)確性問題。由于大多數(shù)商業(yè)AI模型的訓(xùn)練數(shù)據(jù)都不公開,研究團(tuán)隊需要依靠公開的網(wǎng)絡(luò)資源來估算詞匯頻率。他們使用了包括ParaCrawl在內(nèi)的多個大規(guī)模爬蟲數(shù)據(jù)庫,并結(jié)合了Zipf頻率分析工具來提高估算準(zhǔn)確性。

文本頻率蒸餾(TFD)方法的實現(xiàn)也面臨著計算成本的挑戰(zhàn)。讓AI模型進(jìn)行故事續(xù)寫需要大量的API調(diào)用或計算資源,這在大規(guī)模應(yīng)用中可能成為瓶頸。研究團(tuán)隊通過實驗發(fā)現(xiàn),隨著用于蒸餾的數(shù)據(jù)量增加,性能改進(jìn)效果也相應(yīng)提升,但成本也在增加。他們建議在實際應(yīng)用中根據(jù)具體需求在成本和效果之間找到平衡點。

輸入改寫器的設(shè)計是另一個技術(shù)挑戰(zhàn)。改寫過程需要確保語義的完全保持,同時有效提升文本頻率。研究團(tuán)隊發(fā)現(xiàn),自動改寫可能引入語義偏移,因此在構(gòu)建數(shù)據(jù)集時采用了人工驗證的方式。對于實際應(yīng)用,他們建議使用半自動化的方法,結(jié)合自動改寫和人工審核來確保質(zhì)量。

課程式訓(xùn)練的實現(xiàn)相對簡單,主要是對訓(xùn)練數(shù)據(jù)進(jìn)行重新排序,但需要預(yù)先計算所有訓(xùn)練樣本的頻率分?jǐn)?shù)。對于大型數(shù)據(jù)集,這個預(yù)處理步驟可能需要相當(dāng)?shù)臅r間,但一旦完成就能夠重復(fù)使用。

說到底,F(xiàn)aceMind公司和香港中文大學(xué)的這項研究揭示了一個既簡單又深刻的道理:與AI交流時,使用常見詞匯就像說話時使用清晰的發(fā)音一樣重要。這個發(fā)現(xiàn)不僅為我們提供了立即可用的改進(jìn)方法,還為未來的AI系統(tǒng)設(shè)計指明了新的方向。

研究團(tuán)隊通過大量實驗證明,僅僅是調(diào)整詞匯選擇這樣一個看似微小的改變,就能帶來顯著的性能提升。在數(shù)學(xué)推理中準(zhǔn)確率提升8個百分點,在機(jī)器翻譯中99%的語言對都獲得改進(jìn),這些數(shù)字背后體現(xiàn)的是AI技術(shù)優(yōu)化的巨大潛力。

更重要的是,這種優(yōu)化方法幾乎不需要額外的計算資源或復(fù)雜的技術(shù)改造,任何人都可以立即應(yīng)用到與AI系統(tǒng)的日常交互中。這讓我們看到了一種更加民主化的AI優(yōu)化方式:不是只有技術(shù)專家才能改進(jìn)AI系統(tǒng),普通用戶也能通過了解和應(yīng)用這些規(guī)律來獲得更好的AI服務(wù)體驗。

當(dāng)然,研究團(tuán)隊也誠實地指出了當(dāng)前方法的局限性,比如頻率估算的準(zhǔn)確性、語義保持的挑戰(zhàn)等。但正如任何科學(xué)發(fā)現(xiàn)一樣,完美并不是第一步的要求,有效性和實用性才是最重要的標(biāo)準(zhǔn)。從這個角度來看,文本頻率定律無疑已經(jīng)達(dá)到了這個標(biāo)準(zhǔn)。

展望未來,這項研究可能會催生更多相關(guān)的探索,比如如何將頻率信息更好地融入模型訓(xùn)練過程,如何開發(fā)更智能的自動改寫工具,如何將這個理論擴(kuò)展到多模態(tài)AI系統(tǒng)等。對于想要深入了解這項研究的讀者,可以通過arXiv:2604.02176v1查詢完整的研究論文。

Q&A

Q1:什么是Adam's Law文本頻率定律?

A:Adam's Law是FaceMind公司提出的理論,發(fā)現(xiàn)當(dāng)兩個句子意思相同但用詞不同時,使用更常見詞匯的句子能讓AI模型表現(xiàn)更好。就像人類讀常見字詞更快一樣,AI處理高頻率文本時準(zhǔn)確率也會顯著提升。

Q2:使用高頻詞匯能讓AI提升多少準(zhǔn)確率?

A:實驗顯示提升效果相當(dāng)明顯。在數(shù)學(xué)推理任務(wù)中,準(zhǔn)確率能提升8-15個百分點,在機(jī)器翻譯中99%的語言對都獲得改進(jìn)。比如DeepSeek-V3模型的數(shù)學(xué)題正確率從63.55%提升到71.54%。

Q3:普通人如何應(yīng)用文本頻率定律改善AI交互體驗?

A:很簡單,就是用更常見的詞匯與AI對話。比如說"幫我算數(shù)學(xué)題"比"請協(xié)助我進(jìn)行數(shù)學(xué)運算"效果更好,"銀行怎么走"比"金融機(jī)構(gòu)地理位置如何抵達(dá)"更容易被AI理解和準(zhǔn)確回應(yīng)。

特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺“網(wǎng)易號”用戶上傳并發(fā)布,本平臺僅提供信息存儲服務(wù)。

Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.

相關(guān)推薦
熱點推薦
綜合ROI時代,這些高速增長的商家做對了什么?

綜合ROI時代,這些高速增長的商家做對了什么?

刀法研究所
2026-04-16 15:00:13
G2湖人101-94戰(zhàn)勝火箭 球員評價:4人優(yōu)秀,3人及格,2人低迷

G2湖人101-94戰(zhàn)勝火箭 球員評價:4人優(yōu)秀,3人及格,2人低迷

籃球資訊達(dá)人
2026-04-22 13:27:16
注意!6月1日起大醫(yī)院不再隨意接診,看病不按規(guī)矩可能白跑

注意!6月1日起大醫(yī)院不再隨意接診,看病不按規(guī)矩可能白跑

夜深愛雜談
2026-04-21 07:45:20
iPhone Fold 國內(nèi)售價1.4萬元?散熱方案曝光,這次信息量有點大

iPhone Fold 國內(nèi)售價1.4萬元?散熱方案曝光,這次信息量有點大

數(shù)碼Antenna
2026-04-22 11:47:48
建國后外逃級別最高的貪官!至今未落網(wǎng),23年來逃跑方式仍是謎

建國后外逃級別最高的貪官!至今未落網(wǎng),23年來逃跑方式仍是謎

老范談史
2026-04-22 16:45:31
段睿悲痛萬分,深夜發(fā)布訃告:他走了,再也沒有人等我回去了!

段睿悲痛萬分,深夜發(fā)布訃告:他走了,再也沒有人等我回去了!

米果說識
2026-04-22 14:41:50
到賬230億,賈躍亭起飛!

到賬230億,賈躍亭起飛!

鳴金網(wǎng)
2026-04-21 19:58:22
華為乾崑的3次“死磕”舉動,成了車圈最難抄的作業(yè)

華為乾崑的3次“死磕”舉動,成了車圈最難抄的作業(yè)

金錯刀
2026-04-21 14:22:17
炸裂!網(wǎng)傳寧波某豪宅業(yè)主群夫妻大戰(zhàn),虎狼之詞流出,444人圍觀

炸裂!網(wǎng)傳寧波某豪宅業(yè)主群夫妻大戰(zhàn),虎狼之詞流出,444人圍觀

火山詩話
2026-04-22 17:56:13
拼多多暴力抗法震驚全網(wǎng),市值萬億巨頭為何如此囂張

拼多多暴力抗法震驚全網(wǎng),市值萬億巨頭為何如此囂張

燕梳樓頻道
2026-04-20 21:12:04
你寫的Skill,正在拖慢模型?策略式Gene才是正確答案

你寫的Skill,正在拖慢模型?策略式Gene才是正確答案

機(jī)器之心Pro
2026-04-21 18:54:52
5月1日起正式嚴(yán)打!8類灰色行為直接入刑,所有人務(wù)必警惕

5月1日起正式嚴(yán)打!8類灰色行為直接入刑,所有人務(wù)必警惕

另子維愛讀史
2026-04-22 07:39:03
曾高喊打敗美帝:如今卻全家跑去美國,84歲活成這樣,引人熱議!

曾高喊打敗美帝:如今卻全家跑去美國,84歲活成這樣,引人熱議!

小莜讀史
2026-04-20 22:58:35
演員王大陸一審被判刑

演員王大陸一審被判刑

極目新聞
2026-04-22 12:35:08
情侶約會求“刺激”,雙雙被抓,審訊時互相甩鍋

情侶約會求“刺激”,雙雙被抓,審訊時互相甩鍋

深圳晚報
2026-04-22 10:11:17
讓華北的地下水上一次熱搜吧!

讓華北的地下水上一次熱搜吧!

細(xì)雨中的呼喊
2026-04-22 13:29:31
2013年,江青拍攝的照片以34萬元的高價拍出,毛澤東曾稱贊并題詞

2013年,江青拍攝的照片以34萬元的高價拍出,毛澤東曾稱贊并題詞

南書房
2026-04-21 07:25:06
俄羅斯為什么刪除20年法院數(shù)據(jù):審判記錄一夜清空

俄羅斯為什么刪除20年法院數(shù)據(jù):審判記錄一夜清空

律法刑道
2026-04-22 08:53:34
把 DeepSeek、Kimi、智譜和 MiniMax 拉進(jìn)群聊

把 DeepSeek、Kimi、智譜和 MiniMax 拉進(jìn)群聊

愛范兒
2026-04-21 22:36:25
出海更難了!俄朝圖們江公路大橋合攏,預(yù)計今年6月正式通車

出海更難了!俄朝圖們江公路大橋合攏,預(yù)計今年6月正式通車

全城探秘
2026-04-22 16:41:13
2026-04-22 19:39:00
科技行者 incentive-icons
科技行者
科技正在如何變革商業(yè)世界
8088文章數(shù) 562關(guān)注度
往期回顧 全部

科技要聞

對話梅濤:沒有視頻底座,具身智能走不遠(yuǎn)

頭條要聞

朝鮮發(fā)聲痛批日本 要求日本向中國道歉

頭條要聞

朝鮮發(fā)聲痛批日本 要求日本向中國道歉

體育要聞

網(wǎng)易傳媒再度簽約法國隊和阿根廷隊

娛樂要聞

復(fù)婚無望!baby黃曉明陪小海綿零交流

財經(jīng)要聞

伊朗拒絕出席 特朗普宣布延長停火期限

汽車要聞

純電續(xù)航301km+激光雷達(dá) 宋Pro DM-i飛馳版9.99萬起

態(tài)度原創(chuàng)

健康
教育
親子
家居
房產(chǎn)

干細(xì)胞抗衰4大誤區(qū),90%的人都中招

教育要聞

【媒體聚焦】南方工報 | 廣東省教育研究院走進(jìn)湛江開展教研幫扶

親子要聞

今起幼兒信息登記!登記后這兩樣保存好,后續(xù)報名都要用

家居要聞

極簡繪夢 克制和諧

房產(chǎn)要聞

官宣!今年9月起,廣州中小學(xué)“重點班”將成歷史!

無障礙瀏覽 進(jìn)入關(guān)懷版