国产av一二三区|日本不卡动作网站|黄色天天久久影片|99草成人免费在线视频|AV三级片成人电影在线|成年人aV不卡免费播放|日韩无码成人一级片视频|人人看人人玩开心色AV|人妻系列在线观看|亚洲av无码一区二区三区在线播放

網(wǎng)易首頁(yè) > 網(wǎng)易號(hào) > 正文 申請(qǐng)入駐

馬斯克下場(chǎng)點(diǎn)贊!Kimi 這篇論文撬動(dòng)了大模型的「祖?zhèn)鞯鼗?/h1>
0
分享至


同樣的算力,同樣的數(shù)據(jù),憑什么效果不一樣?大多數(shù)人的直覺是:模型更大、數(shù)據(jù)更好、工程師更厲害。但 Kimi 給出了一個(gè)更出人意料的答案。

3 月 16 日,月之暗面 Kimi 發(fā)布了一項(xiàng)重磅技術(shù)報(bào)告《Attention Residuals》(注意力殘差)。

這項(xiàng)技術(shù)針對(duì)幾乎所有現(xiàn)代大模型都在使用的殘差連接結(jié)構(gòu)進(jìn)行了改造,并在實(shí)驗(yàn)中證明,用同樣多的算力,新方法訓(xùn)練出的模型效果相當(dāng)于基線模型花費(fèi) 1.25 倍算力才能達(dá)到的效果。

報(bào)告發(fā)布后,也毫無意外得到了許多硅谷頂尖 AI 人物的點(diǎn)贊背書。


▲附 GitHub 開源地址:github.com/MoonshotAI/Attention-Residuals

比如馬斯克通過社交媒體表示「「Impressive work from Kimi」(令人印象深刻的工作)」OpenAI o1 主要發(fā)明者 Jerry Tworek 稱其為「深度學(xué)習(xí) 2.0」的開端。


前 OpenAI 聯(lián)創(chuàng) Andrej Karpathy 說「看來我們還沒把『Attention is All You Need』這句話按字面意思理解透?!沟绕疬@些夸獎(jiǎng),技術(shù)論文背后的信號(hào)或許更值得關(guān)注:深度學(xué)習(xí)最基礎(chǔ)的范式,正在發(fā)生變化。


十年沒人動(dòng)過的地基,被撬動(dòng)了

過去兩年,大模型的競(jìng)爭(zhēng)主要在「上層建筑」展開:更好的注意力變體、更聰明的 MoE 路由策略、更精巧的對(duì)齊方法,大家都在 Transformer 這棟大樓的高層精裝修。

唯獨(dú)有一樣?xùn)|西,從 2015 年 ResNet 論文發(fā)表以來,幾乎沒人動(dòng)過:殘差連接(Residual Connections)。

要理解這項(xiàng)技術(shù),得先知道大模型內(nèi)部的基本結(jié)構(gòu)。

現(xiàn)代大模型,其實(shí)都是由很多層神經(jīng)網(wǎng)絡(luò)疊加而成的,少則幾十層,多則上百層。信息從底部輸入,一層一層往上傳遞,每一層都對(duì)信息做一次加工,最終在頂部輸出結(jié)果。

可以把它想象成一條流水線上的工人:原材料從第一道工序進(jìn)來,每個(gè)工人對(duì)它加工一遍,再傳給下一個(gè),最終出來成品。問題是,流水線越長(zhǎng),越難訓(xùn)練。

假設(shè)第 50 道工序的工人犯了錯(cuò),你想糾正他,就得把這個(gè)「糾錯(cuò)信號(hào)」一路往回傳,經(jīng)過 49 個(gè)工人才能傳到第 1 個(gè)。傳著傳著,信號(hào)就消失了,底層的工人根本不知道自己哪里出了問題。

為了讓這么深的網(wǎng)絡(luò)能夠訓(xùn)練起來,知名學(xué)者何愷明團(tuán)隊(duì)在 2015 年發(fā)表了一篇題為《Deep Residual Learning for Image Recognition》的論文,引入了一個(gè)關(guān)鍵設(shè)計(jì),叫做殘差連接(Residual Connections):

每一層在加工信息的同時(shí),還會(huì)保留一條「直通道」,把原始輸入原封不動(dòng)地加到加工結(jié)果上,再往下傳。這條直通道讓梯度在反向傳播時(shí)可以繞過中間的變換,一路流回底層,從根本上解決了深層網(wǎng)絡(luò)難以訓(xùn)練的問題。


比較通俗的理解是,在每道工序旁邊加一條「直通道」,把原材料原封不動(dòng)地繞過這道工序,直接和加工結(jié)果合并,再往下傳。這樣糾錯(cuò)信號(hào)就可以沿著直通道一路暢通無阻地傳回底層,不會(huì)消失。

這篇論文后來成為計(jì)算機(jī)視覺乃至整個(gè)深度學(xué)習(xí)領(lǐng)域引用次數(shù)最多的論文之一,殘差連接也沿用至今,是幾乎所有大模型的基石。

殘差連接雖然好用,但它做信息聚合的方式非常粗暴:把所有前面層的輸出,無差別地等權(quán)相加。

還是用流水線來比喻。到了第 51 道工序,這個(gè)工人手里拿到的,是前面 50 道工序所有產(chǎn)出物的等量混合,每道工序的產(chǎn)出各占一份,不多不少。他沒有辦法說「我想多要一點(diǎn)第 3 道工序的原料」,也沒有辦法說「第 20 道工序的東西對(duì)我沒用,少給我一點(diǎn)」。

這帶來了一個(gè)名為 PreNorm 稀釋的實(shí)際問題 :隨著網(wǎng)絡(luò)越來越深,累積疊加的信息越來越多,每一層自己的貢獻(xiàn)在龐大的總量里越來越微不足道。越靠后的層,想要讓自己的聲音被「聽見」,就得輸出越來越大的數(shù)值,否則就會(huì)被淹沒。

結(jié)果就是,很多中間層其實(shí)沒在認(rèn)真干活。已有研究發(fā)現(xiàn),大模型里相當(dāng)一部分層直接刪掉,效果幾乎不變,這說明這些層的貢獻(xiàn)實(shí)際上極為有限。

大多數(shù)團(tuán)隊(duì)早就知道這個(gè)問題,選擇繞開它,轉(zhuǎn)而在在現(xiàn)有架構(gòu)上疊加更好的數(shù)據(jù)配比、更精巧的訓(xùn)練策略、更長(zhǎng)的上下文窗口。這些工作當(dāng)然有價(jià)值,但本質(zhì)上是在一個(gè)已有的技術(shù)框架內(nèi)做增量?jī)?yōu)化。

Kimi 選擇的是一條更孤獨(dú)也更難的路:回到最基礎(chǔ)的結(jié)構(gòu),用第一性原理重新審視那些「理所當(dāng)然」的設(shè)計(jì)。

今天凌晨,Kimi 創(chuàng)始人楊植麟在 GTC 2026 演講中提到:「行業(yè)目前普遍使用的很多技術(shù)標(biāo)準(zhǔn),本質(zhì)上是八九年前的產(chǎn)物,正逐漸成為 Scaling 的瓶頸。」

楊植麟認(rèn)為,要推動(dòng)大模型智能上限的持續(xù)突破,必須對(duì)優(yōu)化器、注意力機(jī)制及殘差連接等底層基石進(jìn)行重構(gòu)。


一次優(yōu)雅的「旋轉(zhuǎn)」

Kimi 團(tuán)隊(duì)這篇論文的核心突破,其實(shí)也來自一個(gè)優(yōu)雅的類比發(fā)現(xiàn)。

處理文字序列時(shí),早期的循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN)也有類似的額外問題:記性差。它讀完一整段話之后,早期讀到的內(nèi)容會(huì)被后來的內(nèi)容不斷覆蓋,等讀到最后一個(gè)詞,前幾句說了什么已經(jīng)模糊了。

后來 Transformer 用注意力機(jī)制解決了這個(gè)問題,相當(dāng)于給模型配了一張「全文筆記」,處理每個(gè)詞的時(shí)候,都可以翻回去查任意一個(gè)之前出現(xiàn)過的詞,而且查哪里、查多少,由當(dāng)前的內(nèi)容自己決定。

研究人員發(fā)現(xiàn),殘差連接在深度方向上碰到的問題,和 RNN 在時(shí)間方向上碰到的問題,數(shù)學(xué)結(jié)構(gòu)完全一樣。換句話說,把 Transformer 想象成一張二維的網(wǎng)格:

橫軸是序列方向,一句話里從左到右的每個(gè)詞;縱軸是深度方向,從底層到頂層的每一層網(wǎng)絡(luò)。傳統(tǒng)的注意力機(jī)制是沿著橫軸工作的,處理某個(gè)詞時(shí)去查同一層里其他詞的信息。

而 Attention Residuals 做的事情,就是把完全相同的機(jī)制轉(zhuǎn)到縱軸上去,處理某一層時(shí)去查前面所有層的輸出,決定要參考哪些層、參考多少。操作對(duì)象從「同一層里的不同詞」變成了「同一個(gè)詞在不同層里的狀態(tài)」,機(jī)制本身一模一樣,好比方向轉(zhuǎn)了 90 度。


既然注意力機(jī)制解決了序列方向的問題,旋轉(zhuǎn)一下搬到深度方向上,同樣有效。

這里有一個(gè)更深層的理論發(fā)現(xiàn)值得一提。研究人員通過數(shù)學(xué)分析發(fā)現(xiàn),過去十年里所有對(duì)殘差連接的改進(jìn),包括標(biāo)準(zhǔn)殘差、Highway 網(wǎng)絡(luò)、mHC 等各種變體,在數(shù)學(xué)上其實(shí)都是同一件事的不同形式,都等價(jià)于某種「深度方向的線性注意力」。換句話說,大家一直在朝同一個(gè)方向努力,只是當(dāng)時(shí)沒意識(shí)到。

而 AttnRes 的核心思路在于,把注意力機(jī)制從「處理文字序列」的維度,移植到「跨越網(wǎng)絡(luò)深度」的維度上。

具體做法是,給每一層配備一個(gè)小小的「查詢向量」,就像給每道工序的工人配了一張需求單。工人在開工前,先拿著需求單去翻所有前面工序的產(chǎn)出,根據(jù)相關(guān)度算出一套取用比例,再按這個(gè)比例把需要的原料混合起來。

這樣一來,每一層不再是被動(dòng)接受所有前面層輸出的等權(quán)疊加,而是主動(dòng)、有選擇性地決定要從哪些層提取多少信息,比例還會(huì)根據(jù)當(dāng)前任務(wù)的內(nèi)容動(dòng)態(tài)變化。每層只新增一個(gè)向量和一個(gè)歸一化操作,參數(shù)量的增加對(duì)整個(gè)模型來說幾乎可以忽略不計(jì)。

為了保證訓(xùn)練初期穩(wěn)定,這個(gè)查詢向量必須初始化為全零,相當(dāng)于讓工人一開始什么偏好都沒有、平等對(duì)待所有前序產(chǎn)出,等訓(xùn)練推進(jìn)了再慢慢形成自己的判斷。

值得一提的是,研究人員也測(cè)試過一個(gè)更激進(jìn)的版本:讓查詢向量不再是固定參數(shù),而是根據(jù)每一層當(dāng)前的輸入內(nèi)容動(dòng)態(tài)生成。這個(gè)版本效果確實(shí)更好,損失值進(jìn)一步下降。

但最終沒有采用,原因是推理時(shí)這種方式需要順序讀取內(nèi)存,會(huì)增加延遲。這個(gè)取舍體現(xiàn)了貫穿整篇論文的工程哲學(xué),理論上更優(yōu)的方案,不一定是實(shí)用上應(yīng)該選的方案。

大模型的新技術(shù),最后都得過這一關(guān)

全量 AttnRes 在小規(guī)模實(shí)驗(yàn)中很好用,但一到大規(guī)模訓(xùn)練就遇到了麻煩。

它需要每一層都能訪問所有前面層的輸出。模型有一百多層,每層的輸出都得保存在內(nèi)存里,還要在不同計(jì)算節(jié)點(diǎn)之間來回傳輸,內(nèi)存和通信開銷隨層數(shù)線性增長(zhǎng),在大模型上根本承受不起。

Kimi 團(tuán)隊(duì)的解法很實(shí)在:Block AttnRes。把網(wǎng)絡(luò)所有層劃分為若干個(gè) Block(48B 模型中分了 8-9 個(gè) Block,每個(gè) Block 約 6 層),Block 內(nèi)部沿用傳統(tǒng)殘差連接,Block 之間使用 softmax 注意力。打個(gè)比方——不必給每層樓都裝電梯,在關(guān)鍵樓層之間架設(shè)快速通道就夠了。


這樣,需要保存和傳輸?shù)臄?shù)據(jù)量,從「所有層的數(shù)量」降低到「塊的數(shù)量」,開銷大幅縮小。實(shí)驗(yàn)發(fā)現(xiàn),分成約 8 個(gè)塊就能保留全量方法絕大部分的性能提升。

在具體的工程實(shí)現(xiàn)上,團(tuán)隊(duì)還做了兩項(xiàng)優(yōu)化。

訓(xùn)練端設(shè)計(jì)了跨階段緩存機(jī)制,在流水線并行訓(xùn)練中每次切換階段時(shí)只傳輸新增的那一小部分塊數(shù)據(jù),而不是每次都把全部歷史重新傳一遍,實(shí)測(cè)整體訓(xùn)練額外開銷不超過 4%。

推理端設(shè)計(jì)了兩階段計(jì)算策略,把一個(gè)塊內(nèi)所有層的查詢打包成一次矩陣運(yùn)算統(tǒng)一處理,把重復(fù)的內(nèi)存訪問攤銷掉,最終推理延遲增加不超過 2%。

那實(shí)驗(yàn)效果怎么樣呢?研究人員測(cè)了五個(gè)不同規(guī)模的模型。

結(jié)果顯示,Block AttnRes 在全部規(guī)模上均以更低的驗(yàn)證損失領(lǐng)先于基線,且改善幅度隨規(guī)模增大而穩(wěn)定保持。按擬合曲線推算,在相同的計(jì)算量下,Block AttnRes 相當(dāng)于基線模型用 1.25 倍算力才能達(dá)到的效果。

在 48B 參數(shù)(3B 激活)規(guī)模的 Kimi Linear 架構(gòu)實(shí)驗(yàn)中,Block AttnRes 展現(xiàn)了極強(qiáng)的泛化性:在全部 15 項(xiàng)主流評(píng)測(cè)基準(zhǔn)中,其表現(xiàn)均持平或優(yōu)于 PreNorm 基線模型。


例如,在博士級(jí)科學(xué)推理 GPQA-Diamond 上實(shí)現(xiàn)了 7.5% 的飛躍,在數(shù)學(xué) Math (+3.6%) 及代碼生成 HumanEval (+3.1%) 任務(wù)中也錄得了顯著增益 。

從訓(xùn)練過程來看,基線模型的各層輸出數(shù)值隨深度單調(diào)增大,印證了 PreNorm 稀釋問題;而 AttnRes 的各層輸出數(shù)值在塊邊界處得到重置,呈現(xiàn)周期性變化,各層梯度分布也更加均勻,說明更多的層真正參與到了有效的學(xué)習(xí)中。


此外,研究人員還可視化了訓(xùn)練后模型學(xué)到的注意力權(quán)重,發(fā)現(xiàn)了幾個(gè)有趣的規(guī)律。

每一層仍然最依賴直接前一層的輸出,局部性依然是主要的信息流通方式。但同時(shí)出現(xiàn)了一些跳躍性的連接,比如某些層會(huì)穩(wěn)定地回溯到很早期的層,還有些層會(huì)特別關(guān)注最初的詞嵌入輸出。

另一個(gè)規(guī)律是,注意力層和 MLP 層的「回望」模式不同:注意力層傾向于關(guān)注更廣泛的歷史,MLP 層則更依賴近鄰層。這與兩者在模型中的功能分工是吻合的。

AttnRes還帶來了一個(gè)對(duì)未來模型設(shè)計(jì)有參考價(jià)值的發(fā)現(xiàn)。研究人員在固定總計(jì)算量和參數(shù)量的前提下,枚舉了 25 種不同的深度與寬度組合,對(duì)比基線模型和 AttnRes 各自偏好的最優(yōu)架構(gòu)。


結(jié)果發(fā)現(xiàn),標(biāo)準(zhǔn)殘差連接偏好「更寬、層數(shù)更少」的模型,而 AttnRes 的最優(yōu)點(diǎn)偏向「更窄、層數(shù)更多」的模型。這說明 AttnRes 能夠更有效地利用深度,讓每增加一層都真正產(chǎn)生價(jià)值,而不是讓深度變成一種邊際效益遞減的堆砌。

這個(gè)發(fā)現(xiàn)的含義不止于此。它意味著 AttnRes 不只是在原有架構(gòu)上打了一個(gè)補(bǔ)丁,而是從根本上改變了網(wǎng)絡(luò)深度的利用效率,也為未來設(shè)計(jì)大模型時(shí)如何分配深度與寬度的資源提供了新的參考依據(jù)。


楊植麟曾提到,十年前不是沒有好想法,而是沒有算力去驗(yàn)證。現(xiàn)在有了足夠的資源和「縮放階梯(Scaling Ladder)」,那些被擱置的問題才終于能被認(rèn)真答一遍。

大佬點(diǎn)贊的背后,是一個(gè)時(shí)代在轉(zhuǎn)彎

一個(gè)中國(guó)團(tuán)隊(duì)在最底層的架構(gòu)創(chuàng)新上獲得硅谷頂級(jí)人物的實(shí)質(zhì)性認(rèn)可,這件事本身十分罕見,他們認(rèn)可的不只是論文成果本身,更在于Kimi 這篇論文指向了一個(gè)全新的方向:優(yōu)化已經(jīng)從 attention、MoE 這些上層模塊,深入到了最底層的殘差連接。

在 GTC 2026 演講中,楊植麟還披露了一連串底層技術(shù)創(chuàng)新:MuonClip 優(yōu)化器實(shí)現(xiàn)了相比 AdamW 2 倍的計(jì)算效率提升——要知道 Adam 優(yōu)化器自 2014 年以來幾乎未被撼動(dòng),屬于深度學(xué)習(xí)的「不可觸碰之物」;Kimi Linear(KDA 架構(gòu))在 128K 到百萬級(jí)超長(zhǎng)上下文下實(shí)現(xiàn) 5-6 倍的解碼加速;Vision RL 的跨模態(tài)訓(xùn)練甚至讓純文本 benchmark 也提升了約 2.1%。

楊植麟把這些創(chuàng)新概括為三個(gè)維度的 Scaling 框架:Token 效率 × 長(zhǎng)上下文 × Agent Swarms。

「當(dāng)前的 Scaling 已經(jīng)不再是單純的資源堆砌,而是要在計(jì)算效率、長(zhǎng)程記憶和自動(dòng)化協(xié)作上同時(shí)尋找規(guī)模效應(yīng)?!?/p>

一家公司,同時(shí)在優(yōu)化器、殘差連接、注意力架構(gòu)、跨模態(tài)訓(xùn)練這些底層戰(zhàn)場(chǎng)上全線推進(jìn),這種打法在行業(yè)里相當(dāng)特立獨(dú)行。

這也是為什么 Jerry Tworek 會(huì)說出「深度學(xué)習(xí) 2.0」這樣的判斷。當(dāng)然不是說 Attention Residuals 這篇論文就能顛覆一切,更多是它代表了一種方法論的回歸:不再滿足于在已有框架上修修補(bǔ)補(bǔ),去重新審視那些被所有人當(dāng)作「已解決問題」的基礎(chǔ)設(shè)施。

如果殘差連接可以被重新設(shè)計(jì),那么 Adam 優(yōu)化器呢?層歸一化呢?位置編碼呢?深度學(xué)習(xí)的基礎(chǔ)范式本身正在發(fā)生變化,這扇門一旦推開,后面的故事就不再是線性外推能預(yù)測(cè)的了。

Karpathy 那句「Attention is All You Need 還沒被理解透」的感慨,大概也是這個(gè)意思。

過去幾年,中國(guó) AI 團(tuán)隊(duì)的貢獻(xiàn)更多集中在工程落地和應(yīng)用創(chuàng)新上,在底層架構(gòu)理論方面的原創(chuàng)性突破相對(duì)稀缺。Kimi 這篇論文走的是一條完全不同的路線——一個(gè)統(tǒng)一的理論框架,一個(gè)優(yōu)雅的工程實(shí)現(xiàn),加上嚴(yán)謹(jǐn)?shù)拇笠?guī)模實(shí)驗(yàn)驗(yàn)證。

當(dāng)然,Kimi 這篇論文還有留下不少需要解決的問題。論文的大規(guī)模驗(yàn)證是在 48B 總參數(shù)(3B 激活參數(shù))的模型上完成的,這個(gè)規(guī)模放在今天的第一梯隊(duì)里并不算大。在真正的千億乃至萬億參數(shù)模型上,1.25 倍的等效優(yōu)勢(shì)能否穩(wěn)住,目前還是個(gè)問號(hào)。

同時(shí)論文展示的也只是預(yù)訓(xùn)練階段的收益,經(jīng)過指令微調(diào)、RLHF 等后訓(xùn)練步驟后,AttnRes 的優(yōu)勢(shì)是否會(huì)被稀釋,缺乏數(shù)據(jù)。

但話說回來,這些局限恰恰也是想象力的來源。一個(gè)僅需約 100 行代碼改動(dòng)、增加不到 4% 訓(xùn)練開銷的輕量修改,就能在 48B 規(guī)模上帶來這樣的提升。

當(dāng)它被應(yīng)用到更大規(guī)模的下一代模型上時(shí),收益的天花板在哪里,誰也說不準(zhǔn)。

Attention Residuals 抬高了 Token 效率的天花板,Kimi Linear 拓展了長(zhǎng)上下文的邊界,Agent Swarms 指向智能體協(xié)作的未來。當(dāng)這三條技術(shù)線在下一代模型中匯合,呈現(xiàn)出的可能就是新的范式轉(zhuǎn)變。

在 AI 這座通天塔的工程上,所有人都在爭(zhēng)著往上添磚加瓦,而 Kimi 低頭往路基重重地鑿了一鍬,恰好撬動(dòng)了深度學(xué)習(xí)的地基。

作者:莫崇宇,李超凡

特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺(tái)“網(wǎng)易號(hào)”用戶上傳并發(fā)布,本平臺(tái)僅提供信息存儲(chǔ)服務(wù)。

Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.

相關(guān)推薦
熱點(diǎn)推薦
2005年,韓國(guó)把“漢城”改為首爾,全世界為何只要求中國(guó)改稱呼?

2005年,韓國(guó)把“漢城”改為首爾,全世界為何只要求中國(guó)改稱呼?

咸説歷史
2026-03-19 07:06:34
5次逼宮換隊(duì)!毫無忠誠(chéng)為何被哄搶?生涯17年帶隊(duì)全進(jìn)季后賽太強(qiáng)

5次逼宮換隊(duì)!毫無忠誠(chéng)為何被哄搶?生涯17年帶隊(duì)全進(jìn)季后賽太強(qiáng)

你的籃球頻道
2026-03-29 11:08:18
17分14助5板!把球給哈登,雙塔效果能加倍,阿特金森賽后明牌了

17分14助5板!把球給哈登,雙塔效果能加倍,阿特金森賽后明牌了

巴叔GO聊體育
2026-03-29 10:58:14
美國(guó)警告賴清德當(dāng)局:大陸決定動(dòng)手那一刻,“臺(tái)獨(dú)”只剩一個(gè)結(jié)局

美國(guó)警告賴清德當(dāng)局:大陸決定動(dòng)手那一刻,“臺(tái)獨(dú)”只剩一個(gè)結(jié)局

走過海棠
2026-03-29 10:09:43
央視主持人集體大哭,朱迅流淚康輝掩面痛哭,真相是什么?

央視主持人集體大哭,朱迅流淚康輝掩面痛哭,真相是什么?

落雪聽梅a
2026-03-28 09:14:37
今年有桃花旺運(yùn),更有金運(yùn)加持,生活越過越有勁頭的三個(gè)生肖

今年有桃花旺運(yùn),更有金運(yùn)加持,生活越過越有勁頭的三個(gè)生肖

毅談生肖
2026-03-29 10:49:42
一周竟然7次,41歲男子心源性猝死,妻子:勸了很多次,就是不聽

一周竟然7次,41歲男子心源性猝死,妻子:勸了很多次,就是不聽

健康之光
2026-03-28 13:35:08
復(fù)出在即,尼科·威廉姆斯的世界杯前景如何?

復(fù)出在即,尼科·威廉姆斯的世界杯前景如何?

樂道足球
2026-03-29 11:51:03
哈耶克:為何錯(cuò)誤思潮總是卷土重來?

哈耶克:為何錯(cuò)誤思潮總是卷土重來?

游子三月三
2026-03-22 18:24:32
黃健翔怒斥U23國(guó)足:踢友誼賽都蹲坑防守 中國(guó)足球跌到亞洲第幾流

黃健翔怒斥U23國(guó)足:踢友誼賽都蹲坑防守 中國(guó)足球跌到亞洲第幾流

念洲
2026-03-29 08:00:27
U23國(guó)足逼平朝鮮隊(duì),賽后黃健翔發(fā)文暗諷董路

U23國(guó)足逼平朝鮮隊(duì),賽后黃健翔發(fā)文暗諷董路

姜大叔侃球
2026-03-29 10:32:40
這下不吹了,俄烏兩軍連續(xù)大戰(zhàn),打破一個(gè)又一個(gè)“無敵”武器神話

這下不吹了,俄烏兩軍連續(xù)大戰(zhàn),打破一個(gè)又一個(gè)“無敵”武器神話

策略述
2025-11-12 18:42:46
18歲的姚晨在肯德基工作時(shí)的一張照片,那時(shí)就難掩渾身的好氣質(zhì)

18歲的姚晨在肯德基工作時(shí)的一張照片,那時(shí)就難掩渾身的好氣質(zhì)

娛你同歡
2026-03-17 16:08:28
臺(tái)退役上校呼吁:只要大陸答應(yīng)2個(gè)條件,臺(tái)灣隨時(shí)都可以和平統(tǒng)一

臺(tái)退役上校呼吁:只要大陸答應(yīng)2個(gè)條件,臺(tái)灣隨時(shí)都可以和平統(tǒng)一

夢(mèng)史
2026-03-27 01:05:45
史上最尷尬的爆劇?官媒下場(chǎng),慶功宴取消

史上最尷尬的爆劇?官媒下場(chǎng),慶功宴取消

動(dòng)物奇奇怪怪
2026-03-28 16:59:10
重磅!2年7500萬,哈登與騎士續(xù)約協(xié)議曝光,更炸裂的還在后面…

重磅!2年7500萬,哈登與騎士續(xù)約協(xié)議曝光,更炸裂的還在后面…

煙潯渺渺
2026-03-28 17:03:40
2012年,用U型鎖砸日系車并重傷車主的蔡洋早已出獄,如今怎樣了

2012年,用U型鎖砸日系車并重傷車主的蔡洋早已出獄,如今怎樣了

談史論天地
2026-03-25 09:57:09
石油大漲,全世界最難受的可能不是美國(guó),也不是歐洲

石油大漲,全世界最難受的可能不是美國(guó),也不是歐洲

流蘇晚晴
2026-03-28 14:13:36
唏噓!前曼聯(lián)巨星徹底隕落,30 歲竟落得這般下場(chǎng)

唏噓!前曼聯(lián)巨星徹底隕落,30 歲竟落得這般下場(chǎng)

瀾歸序
2026-03-29 03:30:49
張愛玲:人生最大的悲哀不是選錯(cuò)伴侶,也不是沒掙到錢,而是人到中年才發(fā)現(xiàn),從未真正為自己活過

張愛玲:人生最大的悲哀不是選錯(cuò)伴侶,也不是沒掙到錢,而是人到中年才發(fā)現(xiàn),從未真正為自己活過

四行書
2026-03-27 12:33:32
2026-03-29 12:24:49

愛范兒 incentive-icons
愛范兒
消費(fèi)科技第一媒體
38622文章數(shù) 2601362關(guān)注度
往期回顧 全部

科技要聞

馬斯克承認(rèn)xAI"建錯(cuò)了",11位創(chuàng)始人均離職

頭條要聞

牛彈琴:特朗普親口對(duì)沙特說出傲慢的話 全世界不敢相信

頭條要聞

牛彈琴:特朗普親口對(duì)沙特說出傲慢的話 全世界不敢相信

體育要聞

全球第二大車企,也救不了這支德甲隊(duì)?

娛樂要聞

張凌赫事件持續(xù)升級(jí)!官方點(diǎn)名怒批

財(cái)經(jīng)要聞

Kimi、Minimax 們的算力荒

汽車要聞

嵐圖泰山X8配置曝光 四激光雷達(dá)/華為新一代座艙

態(tài)度原創(chuàng)

本地
房產(chǎn)
藝術(shù)
數(shù)碼
手機(jī)

本地新聞

在濰坊待了三天,沒遇到一個(gè)“濰坊人”

房產(chǎn)要聞

首日430組來訪,單日120組認(rèn)籌!??谑讉€(gè)真四代,徹底爆了!

藝術(shù)要聞

2025江南如畫——中國(guó)油畫作品展 | 入選作品選刊(二)

數(shù)碼要聞

LG電競(jìng)顯示器預(yù)約!1080P 144Hz僅649/799元

手機(jī)要聞

市場(chǎng)提升20%,2月排名出爐,華為笑到最后

無障礙瀏覽 進(jìn)入關(guān)懷版