国产av一二三区|日本不卡动作网站|黄色天天久久影片|99草成人免费在线视频|AV三级片成人电影在线|成年人aV不卡免费播放|日韩无码成人一级片视频|人人看人人玩开心色AV|人妻系列在线观看|亚洲av无码一区二区三区在线播放

網(wǎng)易首頁 > 網(wǎng)易號 > 正文 申請入駐

AGI為什么不會到來?這位研究員把AI的“物理極限”講透了

0
分享至


AGI 會不會到來?

這是AI 行業(yè)里反復(fù)被討論、卻一直始終缺乏清晰論證的問題。

最近,西雅圖艾倫人工智能研究所(AI2)的研究員蒂姆·德特默斯(Tim Dettmers)在一篇文章,題目很直接——《為什么 AGI 不會實現(xiàn)?》。



蒂姆·德特默斯

在這篇文章中,他提出了一個被長期忽視、卻至關(guān)重要的前提:

計算并不是抽象概念,而是一件徹底受物理規(guī)律約束的事情。

這意味著,智能的提升并不是“想象空間”問題,而是繞不開能量、帶寬、存儲、制造和成本的物理限制。

德特默斯認(rèn)為,當(dāng)下市場對AGI 的判斷普遍偏樂觀,一個關(guān)鍵原因在于:

很多討論只停留在模型、參數(shù)和算法層面,卻忽視了支撐這些能力的物理基礎(chǔ)正在逼近極限。

在文章中,德特默斯第一次從物理約束的角度,系統(tǒng)性地解釋了為什么AGI 面臨一系列難以回避的現(xiàn)實。這些判斷,也有助于我們更好地理解當(dāng)前的AI行業(yè)。

他在文章中總結(jié)了幾條關(guān)鍵判斷:

1)Transformer 的成功并非偶然,而是在當(dāng)前物理約束下接近最優(yōu)的工程選擇,繼續(xù)通過架構(gòu)改進(jìn)獲得的邊際收益正在快速下降

2)當(dāng)下大量所謂“創(chuàng)新”,本質(zhì)仍是既有框架上的漸進(jìn)改進(jìn),很難帶來結(jié)構(gòu)性躍遷。

3)AI 過去的 Scaling Law 很大程度上依賴GPU的性能紅利,而GPU“可壓榨空間”正在接近尾聲。

4)真正的AGI 不只是認(rèn)知能力問題,還必須具備在現(xiàn)實世界中執(zhí)行具有經(jīng)濟(jì)意義工作的能力,而這一領(lǐng)域恰恰最受物理與成本約束。

以下內(nèi)容為蒂姆·德特默斯文章的編譯,略有刪減。

被物理極限“鎖死”的AGI

關(guān)于AGI、超級智能、擴(kuò)展定律的討論,尤其在灣區(qū),有一個長期被忽視的問題:這些討論大多停留在觀念層面,而非物理現(xiàn)實之中。

很多人談?wù)撏ㄓ萌斯ぶ悄堋⒊壷悄,?xí)慣把它們當(dāng)成純粹的抽象概念,像做哲學(xué)思想實驗一樣推演未來:參數(shù)還能不能再大?算力還能不能繼續(xù)堆?智能會不會指數(shù)級自我進(jìn)化?

但這套思維,本身就建立在一個根本性的誤解之上——計算不是抽象的,它是物理的。

要理解這一點,先看一個最基礎(chǔ)的事實:高效計算,始終在做兩件事的平衡。


一是把分散在各處的信息,搬運到計算發(fā)生的地方;

二是把局部計算的結(jié)果,再重新匯聚成新的信息。

問題在于,計算本身是便宜的,信息移動是昂貴的。

隨著晶體管尺寸變小,單次計算的成本持續(xù)下降。但信息在芯片內(nèi)部、在不同存儲層級之間移動,其成本卻會隨著距離呈平方級增長。這是一個繞不開的物理規(guī)律。

緩存層級就是最直觀的例子。

L1、L2、L3 緩存用的是同樣的工藝,但性能差異巨大:L1 最快、容量最;L3 最大、卻慢得多。原因并不復(fù)雜:離計算核心越遠(yuǎn),訪問成本越高。

因此有兩個結(jié)論非常重要:


第一,更大的緩存,必然更慢;

第二,隨著制程進(jìn)步,芯片上“算力”的成本在下降,但“內(nèi)存”和“帶寬”的成本反而在上升。

今天的高端芯片設(shè)計中,真正用于“計算”的邏輯單元,其實只占很小一部分。絕大多數(shù)硅面積,都被用在了存儲、互連和數(shù)據(jù)通路上。

當(dāng)然理論上仍然可以設(shè)計一顆擁有10 exaflops 算力的芯片,但如果沒有與之匹配的內(nèi)存系統(tǒng),這些算力大多只會閑置,變成“無用的浮點運算”。

這一點,在很多關(guān)于算力的敘事中被刻意忽略了。

把這個現(xiàn)實放回AI 架構(gòu)上,就會發(fā)現(xiàn)一件事:

Transformer 的成功,并不是算法上的偶然,而是在當(dāng)前物理約束下接近最優(yōu)的工程選擇

它的核心計算模式,恰好對應(yīng)了當(dāng)前硬件條件下最“劃算”的兩類操作:


一類是局部計算(MLP);

另一類是受限形式的全局信息匯聚(注意力機制)。

Transformer當(dāng)然不是“理論上最優(yōu)”的智能結(jié)構(gòu),但在現(xiàn)實硬件條件下,它可能已經(jīng)非常接近物理意義上的最優(yōu)解。

這意味著,你可以繼續(xù)在Transformer上做改進(jìn),但每一步的收益都會越來越小。

類似的限制不止存在于硅基計算里,也同樣發(fā)生在我們?nèi)祟惿砩稀?/p>

神經(jīng)科學(xué)早已發(fā)現(xiàn):一個物種能擁有多少神經(jīng)元,幾乎可以由其長期穩(wěn)定的能量攝入精確推算。人類通過烹飪,突破了原始能量獲取的限制,但也僅止于此。

我們的智力并非無限擴(kuò)展的結(jié)果,而是剛好卡在能量、代謝和生育之間的平衡點上。

如果人類的大腦再大一些,問題并不在于頭骨或產(chǎn)道,而在于能量供給:

我們將無法在孕期同時維持兩個高能耗大腦的生存。這意味著,人類智能本身就是一道被能量約束鎖死的物理上限。

數(shù)字計算也正在走向類似的邊界。

算力還會增長,工程還會優(yōu)化,但把這些變化解讀為“智能可以無限外推”,本身就是一種脫離物理現(xiàn)實的想象。

低垂果實已摘完了

幾乎所有成熟領(lǐng)域的研究,最終都會收斂到同一個結(jié)論:

線性的進(jìn)步,往往需要指數(shù)級的資源投入

這句話翻譯成白話就是:如果你想讓一個系統(tǒng)持續(xù)變得更精確、更高效、更強大,那么每往前走一步,所需要付出的成本都會比上一步高得多。

背后原因并不復(fù)雜。在物理世界里,任何有效結(jié)果,都依賴資源在時間和空間上的聚集。要產(chǎn)生線性規(guī)模的效果,你至少需要線性規(guī)模的資源。

但隨著系統(tǒng)規(guī)模變大,這些資源會在空間、時間和能量上發(fā)生競爭,協(xié)同效率不斷下降,最終表現(xiàn)為:投入增長得很快,產(chǎn)出卻增長得越來越慢。

在物理世界如此,在思想世界也一樣。

如果兩個想法彼此完全獨立,它們的疊加效果可能是倍增的;但一旦想法之間存在依賴關(guān)系,邊際收益就會迅速下降。

絕大多數(shù)“新想法”,并不是從零開始,而是建立在已有框架之上的改進(jìn)。即便這個改進(jìn)再聰明,它所能帶來的提升也往往是漸進(jìn)式的。

當(dāng)一個領(lǐng)域足夠成熟時,這種現(xiàn)象會變得非常明顯。

即使你看似提出了“完全不同”的方法,它們往往仍然在解決同一個核心問題。

比如,看起來路徑不同的狀態(tài)空間模型和 Transformer,本質(zhì)上都在處理“如何高效建模長程依賴”這個問題。

在這樣的背景下,任何對同一機制的改進(jìn),都只能帶來有限收益。

這種約束,在物理學(xué)中表現(xiàn)得最為殘酷。一位頂尖理論物理學(xué)家曾這樣形容這個處境:

如果一個想法被限制在同一個子領(lǐng)域內(nèi),那么幾乎不可能產(chǎn)生真正有意義的突破。因為該想的,早就被想過了;而那些看似天馬行空的創(chuàng)意,往往只是重新排列了既有規(guī)則,并沒有觸及根本問題。

實驗物理則從另一個角度揭示了這種邊界。

為了驗證更深層的物理規(guī)律,我們不得不建造越來越昂貴、越來越復(fù)雜的實驗裝置。大型強子對撞機耗資數(shù)十億美元,但帶來的更多是對理論的排除,而不是明確的新答案。

這并不一定意味著我們“不夠聰明”,而更可能意味著:某些問題本身,就被資源和復(fù)雜度鎖在了我們目前無法觸及的層級之外。

最終,我們一次又一次回到同一個現(xiàn)實判斷:

當(dāng)一個系統(tǒng)進(jìn)入成熟階段后,想要獲得線性的改進(jìn),往往必須付出指數(shù)級的資源代價。

這既是科學(xué)研究的邊界,也是技術(shù)、算力和智能擴(kuò)展所共同面對的硬約束。

GPU已經(jīng)被“榨干”了

另一個影響極大的誤解是:人們默認(rèn)硬件會一直線性進(jìn)步。

過去十多年,AI 的幾次關(guān)鍵躍遷,確實都踩在了GPU性能提升的節(jié)奏上。

AlexNet 的成功,本質(zhì)上是CUDA + GPU跑通了卷積網(wǎng)絡(luò)的結(jié)果。此后,無論是更深的CNN,還是Transformer的規(guī)模化訓(xùn)練,幾乎都依賴兩個變量:單卡性能提升+GPU數(shù)量增加。

于是,一個非常自然的敘事形成了:GPU 越來越強,推動AI 越來越強。

但問題恰恰在這里。GPU 并不是在“持續(xù)進(jìn)步”,而是在逐步逼近物理和工程的邊界。

如果回頭看,會發(fā)現(xiàn)GPU 真正快速提升的階段,大概在 2018 年左右已經(jīng)結(jié)束。

此后我們看到的“進(jìn)步”,更多是通過一系列一次性、不可重復(fù)的工程紅利換來的:

最早是FP16,然后是 Tensor Core(或等價的矩陣加速單元),再往后是 HBM 高帶寬內(nèi)存,接著是更激進(jìn)的數(shù)據(jù)搬運機制(如 TMA),再然后是 INT8、INT4 甚至更低比特寬度。

這些手段,本質(zhì)上都在做同一件事:用精度換吞吐,用工程技巧壓榨邊界。

問題在于,這條路是有限的。

從計算物理和信息論角度看,在特定塊大小、訪存模式和調(diào)度結(jié)構(gòu)下,最優(yōu)的數(shù)據(jù)類型和計算布局是可以算出來的。

這些結(jié)論并不神秘,也早已被論文系統(tǒng)性地討論過。現(xiàn)在的硬件廠商,事實上已經(jīng)把這些“可壓榨的空間”基本用完了

繼續(xù)往前走,不再是“免費性能提升”,而只剩下權(quán)衡:


要么犧牲計算效率,換更小的內(nèi)存占用;

要么犧牲內(nèi)存效率,換更高的計算吞吐。

無論選哪條路,都不再帶來數(shù)量級上的提升。這并不意味著硬件已經(jīng)“停止進(jìn)化”,而是意味著:

硬件不再是那個能持續(xù)兜底一切問題的變量了。

在這個背景下,很多人的注意力開始轉(zhuǎn)向機架級、數(shù)據(jù)中心級的系統(tǒng)優(yōu)化。

這一步確實重要,比如高效的KV cache 傳輸、節(jié)點間通信、內(nèi)存拓?fù)湓O(shè)計,都是當(dāng)前推理成本的關(guān)鍵瓶頸。

但這里同樣存在一個現(xiàn)實限制。

從系統(tǒng)工程角度看,真正高效的設(shè)計空間其實非常有限。你可以在實現(xiàn)上做得更極致,但在結(jié)構(gòu)上,往往只有一到兩種接近最優(yōu)的方案。它們難度高、工程量大,但并不神秘,也不存在“顛覆性架構(gòu)”。

這也是為什么無論是OpenAI,還是其他前沿實驗室,在基礎(chǔ)設(shè)施層面更多體現(xiàn)的是執(zhí)行力和規(guī)模,而不是不可復(fù)制的系統(tǒng)優(yōu)勢。

即便通過機架級或數(shù)據(jù)中心級優(yōu)化獲得領(lǐng)先,這種優(yōu)勢也往往是暫時的。

隨著行業(yè)跟進(jìn),這些改進(jìn)會迅速擴(kuò)散、被吸收?赡茉2026年,也可能在2027年,這部分紅利就會基本被吃完。

歸根結(jié)底,這一切指向同一個結(jié)論:

AI 的下一個階段,不能再假設(shè)“硬件會繼續(xù)把問題解決掉”

GPU 曾經(jīng)是推動智能躍遷的核心杠桿,但這個杠桿,正在失去它的長度。

/ 04 /

Gemini3,是一個拐點信號

我最近在推特上討論了一個判斷:Gemini 3,可能標(biāo)志著這一輪AI 發(fā)展正在接近階段性停滯。

不少回復(fù)認(rèn)為我太悲觀了,說一句話概括就是:“規(guī);皇沁在起作用嗎?”

問題在于,這里真正需要討論的,并不是“規(guī);袥]有用”,而是規(guī);能用多久、以什么代價繼續(xù)起作用。

真正發(fā)生變化的是成本結(jié)構(gòu)。

過去十多年,我們之所以能在模型規(guī)模上持續(xù)推進(jìn),并不是因為擴(kuò)展本身變得“更高效”,而是因為GPU的指數(shù)級性能提升,抵消了擴(kuò)展所需的指數(shù)級資源投入。

換句話說,過去是線性成本,帶來線性回報。現(xiàn)在變成了指數(shù)級成本,帶來勉強的線性回報。

這本身并非不可接受,但它清晰地劃定了一個邊界:擴(kuò)展不再是一個“可以無限外推”的策略,而是一個正在快速逼近物理極限的手段。

在我看來,我們真正剩下的擴(kuò)展窗口,可能只有一到兩年。

2025 年,單純靠擴(kuò)展帶來的提升已經(jīng)非常有限;如果 2026、2027 年沒有新的研究路徑或軟件層面的突破,那么擴(kuò)展本身在物理上就會變得不可持續(xù)。

更微妙的問題在于:

當(dāng)擴(kuò)展帶來的邊際收益,開始低于研究和軟件創(chuàng)新帶來的收益時,硬件就會從資產(chǎn)變成負(fù)擔(dān)

這并不是一個假設(shè),而是已經(jīng)開始出現(xiàn)的現(xiàn)實信號。

像MoonshotAI、Z.ai 這樣的公司已經(jīng)證明:不需要天量算力,也能做到非常接近前沿模型的能力水平。

從個人體驗來看,我甚至更偏好Kimi K2的思考方式,而不是 Sonnet 4.5 在編碼上的“蠻力感”。這本身就說明:能力提升并不完全等同于規(guī)模擴(kuò)張。

如果這些小團(tuán)隊能在研究或工程上進(jìn)一步突破規(guī)模限制,它們完全有可能在不擁有龐大基礎(chǔ)設(shè)施的情況下,做出最有競爭力的模型。

在推理側(cè),它們甚至可以轉(zhuǎn)向如華為昇騰這樣的替代硬件——這些芯片在推理性能上已經(jīng)足夠好。

這也引出了擴(kuò)展基礎(chǔ)設(shè)施面臨的另一個系統(tǒng)性風(fēng)險。

目前,大模型推理效率高度依賴“規(guī)模本身”:只有當(dāng)GPU數(shù)量足夠多、用戶請求足夠密集時,計算、網(wǎng)絡(luò)通信和 KV cache 才能充分重疊,從而實現(xiàn)接近理論最優(yōu)的利用率。

這意味著,只有擁有巨大用戶規(guī)模的公司,才能真正“用好”這些昂貴的前沿模型。

這也是為什么,開放權(quán)重模型目前并沒有在推理成本上徹底改寫格局——不是模型不行,而是部署成本要求一個同樣龐大的用戶池來攤薄。

但這里的關(guān)鍵在于:這是一個軟件問題,而不是物理問題。

vLLM、SGLang 等推理框架,主要針對的是前沿實驗室那種“超大規(guī)模部署”場景;在中小規(guī)模部署時,它們并不能提供同等級別的效率。

一旦出現(xiàn)更適合中等規(guī)模的推理棧,情況就會完全不同。

如果有人能讓一個3000億參數(shù)級別的模型,在較小規(guī)模下,也能接近 OpenAI 或 Anthropic 的推理效率,那么前沿實驗室在基礎(chǔ)設(shè)施上的護(hù)城河,可能會在極短時間內(nèi)消失。

更何況,還有兩個變量在同時逼近:


一是小模型能力持續(xù)提升(比如GLM 4.6 這類趨勢);

二是AI 應(yīng)用越來越垂直、越來越專業(yè)化,對“通用前沿模型”的依賴正在下降。

在這種情況下,部署復(fù)雜度下降、開源推理棧成熟、硬件選擇多樣化,會讓整個系統(tǒng)迅速逼近物理最優(yōu)解。

而一旦接近物理最優(yōu),規(guī)模優(yōu)勢的溢價就會快速蒸發(fā)。

如果擴(kuò)展速度放緩,那么下面三件事中的任何一件,都可能在短時間內(nèi)顯著削弱AI 基礎(chǔ)設(shè)施的價值:


研究或軟件層面的突破

成熟、強大的開放權(quán)重推理棧

向其他硬件平臺遷移

從這個角度看,當(dāng)前的趨勢對前沿實驗室并不友好。因為真正的競爭,很可能即將回到:研究深度、工程效率,以及對物理現(xiàn)實的敬畏。

/ 04 /

沒有身體的AGI,是一個偽命題

我注意到一個頻繁出現(xiàn)的現(xiàn)象:

當(dāng)你問灣區(qū)的人“AGI 什么時候到來”,他們往往會給出一個相對樂觀的時間表——幾年之內(nèi)、影響巨大、范式顛覆;

但當(dāng)你追問“AGI 究竟是什么”,他們的定義幾乎總是停留在認(rèn)知層面,既不包含體力勞動,也很少討論資源投入與物理約束。

這是一個關(guān)鍵缺失。

如果我們嚴(yán)格定義“通用人工智能”為能夠完成幾乎所有人類任務(wù)的系統(tǒng),那么它就不可能只存在于文本框或服務(wù)器里。

真正的AGI,必然需要具備在現(xiàn)實世界中執(zhí)行具有經(jīng)濟(jì)意義工作的能力——也就是體力勞動。

而恰恰是這一部分,構(gòu)成了人類經(jīng)濟(jì)活動中規(guī)模最大、最復(fù)雜、也是最受物理約束的領(lǐng)域。

從現(xiàn)實來看,機器人技術(shù)并未走向“通用化”,而是高度分化。

在受控環(huán)境中,例如工廠,專用自動化系統(tǒng)已經(jīng)極其成熟。中國的“工廠”已經(jīng)證明:

在明確流程、固定場景下,專用機器人在效率、精度和成本上遠(yuǎn)遠(yuǎn)優(yōu)于任何通用方案。這類系統(tǒng)并不需要“通用智能”,它們靠的是工程優(yōu)化和流程確定性。

而在非受控環(huán)境中,許多看似“智能”的機器人任務(wù),往往在經(jīng)濟(jì)上并不成立。

例如給T 恤縫袖子、在復(fù)雜環(huán)境中疊衣服,這些任務(wù)在技術(shù)上困難、數(shù)據(jù)采集成本極高,但在現(xiàn)實中人類完成它們所需的時間和成本極低。

即便機器人在幾年后能夠完成這些動作,其產(chǎn)出質(zhì)量、成本結(jié)構(gòu)和維護(hù)復(fù)雜度,也很難構(gòu)成真正的經(jīng)濟(jì)優(yōu)勢。

換句話說,機器人領(lǐng)域的問題并不主要是“能不能做”,而是“值不值得做”。

更重要的是,機器人學(xué)習(xí)的擴(kuò)展規(guī)律,與大語言模型高度相似,卻面臨更嚴(yán)苛的現(xiàn)實約束。物理世界的數(shù)據(jù)采集昂貴、反饋稀疏、狀態(tài)空間巨大,這決定了其擴(kuò)展速度遠(yuǎn)慢于純數(shù)字環(huán)境。

結(jié)果是,自動化在工廠里高度成功,而在大多數(shù)日常體力勞動中,經(jīng)濟(jì)回報極其有限。

這也引出了“超級智能”敘事的根本問題。

超級智能的核心假設(shè)是:一旦系統(tǒng)在智能水平上超過人類,就能夠不斷自我改進(jìn),最終形成失控式躍遷。

這一觀點源于牛津哲學(xué)傳統(tǒng),并在灣區(qū)被進(jìn)一步放大。但它忽略了一個基本事實——智能不是抽象存在,而是嵌入在物理系統(tǒng)中的能力。

任何系統(tǒng)的改進(jìn)都需要資源。即便一個系統(tǒng)能更高效地利用資源,它依然無法逃脫規(guī)模定律的約束:

線性改進(jìn),往往需要指數(shù)級投入。通過引入一次性優(yōu)化(例如新的數(shù)據(jù)類型、特殊硬件單元)確實可以暫時繞開收益遞減,但這些路徑本身也會很快耗盡。

因此,更合理的理解是:所謂“超級智能”并不會無限拓展能力邊界,而只是填補現(xiàn)有能力空白。這種填補是有價值的,但它帶來的是漸進(jìn)改進(jìn),而非指數(shù)失控。

類似的誤判也出現(xiàn)在對硬件進(jìn)步的預(yù)期上。

很多人假設(shè),如果智能足夠強,它就能加速GPU、內(nèi)存和系統(tǒng)架構(gòu)的進(jìn)化。

但現(xiàn)實是,GPU 的核心性能提升已經(jīng)接近尾聲。未來的改進(jìn)更多來自封裝、互連、HBM 演進(jìn)和機架級工程優(yōu)化,而這些都是高度資本密集、周期漫長的制造問題,并不存在“靠更聰明就能解決”的捷徑。

Transformer 架構(gòu)本身也已經(jīng)接近物理最優(yōu)。大規(guī)模推理部署,更多是成熟工程問題,而非需要突破性創(chuàng)造力的研究領(lǐng)域。超級智能無法顯著重寫這些基本約束。

從這個角度看,超級智能或許能幫助AI 更快普及,但它并不是普及的決定性因素。真正限制 AI 經(jīng)濟(jì)價值釋放的,從來不是能力上限,而是落地、部署與應(yīng)用結(jié)構(gòu)。

因此,任何將“超級智能”作為核心目標(biāo)的組織,都可能在現(xiàn)實中遭遇持續(xù)的摩擦:高成本、低回報、難以轉(zhuǎn)化。相反,那些專注于降低部署門檻、推動經(jīng)濟(jì)普及、嵌入真實流程的參與者,更可能在長期勝出。

歸根結(jié)底,人們常設(shè)想的AGI 并不會以神話般的方式降臨。它忽視了計算的物理約束、規(guī)模進(jìn)步的真實成本,以及我們已經(jīng)觸及的工程極限。

超級智能之所以被反復(fù)討論,并非因為它理論上穩(wěn)固,而是因為它在回音室中構(gòu)建了一種極具吸引力的敘事。

而AI 的真實未來,將由經(jīng)濟(jì)可行性、實際應(yīng)用與在物理限制下的持續(xù)改進(jìn)共同塑造。越早接受這一現(xiàn)實,我們就越能把注意力從幻想,轉(zhuǎn)向真正能提高生產(chǎn)力與人類福祉的系統(tǒng)。

文/林白

PS:如果你對AI大模型領(lǐng)域有獨特的看法,歡迎掃碼加入我們的大模型交流群。

特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺“網(wǎng)易號”用戶上傳并發(fā)布,本平臺僅提供信息存儲服務(wù)。

Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.

相關(guān)推薦
熱點推薦
平分黃海?李在明表態(tài)重大升級,中國尚未簽聲明,6字描述沒出現(xiàn)

平分黃海?李在明表態(tài)重大升級,中國尚未簽聲明,6字描述沒出現(xiàn)

面包夾知識
2026-01-10 13:05:00
1月12日人民幣對美元中間價調(diào)升20個基點

1月12日人民幣對美元中間價調(diào)升20個基點

證券時報
2026-01-12 09:31:03
輸球又輸人!皇馬決賽最慘之人:阿隆索親手將他打入冷宮

輸球又輸人!皇馬決賽最慘之人:阿隆索親手將他打入冷宮

瀾歸序
2026-01-12 05:35:15
華人成為新西蘭女首富!史上第一次,生于中國,12歲來奧克蘭

華人成為新西蘭女首富!史上第一次,生于中國,12歲來奧克蘭

小熊侃史
2025-12-20 10:50:58
27億美元收購沃爾沃,吉利李書福蛇吞象,18年過去是賺是虧?

27億美元收購沃爾沃,吉利李書福蛇吞象,18年過去是賺是虧?

芳芳?xì)v史燴
2026-01-11 13:01:04
小區(qū)樓上天天晚上都有女的大聲叫。。。

小區(qū)樓上天天晚上都有女的大聲叫。。。

微微熱評
2025-12-24 00:26:04
法院判了!男子入新加坡籍后未銷中國戶籍,這代價有點大

法院判了!男子入新加坡籍后未銷中國戶籍,這代價有點大

小李睡不醒了
2026-01-11 22:25:06
庫里生涯總薪資5.3億,實際到手能有多少?說出來你別不信!

庫里生涯總薪資5.3億,實際到手能有多少?說出來你別不信!

籃球看比賽
2026-01-11 11:36:30
唉!2米22中鋒,全場得0分,頂薪老將瞎扔,13中3,這球不輸才怪

唉!2米22中鋒,全場得0分,頂薪老將瞎扔,13中3,這球不輸才怪

金山話體育
2026-01-12 07:21:23
恭喜楊瀚森!中國歷史首人!姚明都沒能做到

恭喜楊瀚森!中國歷史首人!姚明都沒能做到

King迪哥侃球
2026-01-11 21:55:00
曼聯(lián)毫無斗志,問題積重難返!球迷竟喊話請回阿莫林,陣容是病根

曼聯(lián)毫無斗志,問題積重難返!球迷竟喊話請回阿莫林,陣容是病根

夜白侃球
2026-01-12 11:27:42
巴西歷史最佳陣容發(fā)布!內(nèi)馬爾 小羅 卡卡 卡洛斯落選!大羅上榜

巴西歷史最佳陣容發(fā)布!內(nèi)馬爾 小羅 卡卡 卡洛斯落選!大羅上榜

體壇八點半的那些事兒
2026-01-11 21:10:44
為什么美國抓走馬杜羅后,委內(nèi)瑞拉的股市反而暴漲50%

為什么美國抓走馬杜羅后,委內(nèi)瑞拉的股市反而暴漲50%

總在茶余后
2026-01-12 05:43:01
貝克漢姆兒媳曬5.3億莊園,奢華碾壓婆家,70歲超模母親風(fēng)姿未減

貝克漢姆兒媳曬5.3億莊園,奢華碾壓婆家,70歲超模母親風(fēng)姿未減

譯言
2026-01-12 08:42:53
家中老人突然離世!與保姆分房睡時摔倒,家屬怒告!深圳法院:不用賠

家中老人突然離世!與保姆分房睡時摔倒,家屬怒告!深圳法院:不用賠

南方都市報
2026-01-11 20:52:48
梅西:我媽媽更喜歡哥哥,所以她當(dāng)年沒留在巴塞羅那陪我!

梅西:我媽媽更喜歡哥哥,所以她當(dāng)年沒留在巴塞羅那陪我!

歷史第一人梅西
2026-01-11 22:46:11
馬斯克稱AGI今年就將實現(xiàn)!20年內(nèi)所有商品服務(wù)都將接近免費

馬斯克稱AGI今年就將實現(xiàn)!20年內(nèi)所有商品服務(wù)都將接近免費

第一財經(jīng)資訊
2026-01-11 13:26:10
深度長文:超光速真的不能超越嗎?這四種速度遠(yuǎn)超光速!

深度長文:超光速真的不能超越嗎?這四種速度遠(yuǎn)超光速!

宇宙時空
2026-01-11 10:02:48
有家難回?上海一男子求救:根本進(jìn)不了門!天冷了,你有這種困擾嗎?

有家難回?上海一男子求救:根本進(jìn)不了門!天冷了,你有這種困擾嗎?

縱相新聞
2026-01-11 14:13:25
近期二手 iPhone 4 居然爆火了,價格翻了幾倍!

近期二手 iPhone 4 居然爆火了,價格翻了幾倍!

XCiOS俱樂部
2026-01-11 21:03:38
2026-01-12 12:27:00
硅基觀察Pro incentive-icons
硅基觀察Pro
人工智能新時代的商業(yè)智庫和價值燈塔
787文章數(shù) 57關(guān)注度
往期回顧 全部

科技要聞

小米二手車價大跳水:SU7半年跌5萬元

頭條要聞

媒體:美國"不演了" 特朗普直白表態(tài)震驚世界

頭條要聞

媒體:美國"不演了" 特朗普直白表態(tài)震驚世界

體育要聞

聰明的球員,不是教練教出來的

娛樂要聞

閆學(xué)晶:脫離群眾太久 忘了自己的根

財經(jīng)要聞

揭秘“穩(wěn)賺不賠”的代工項目騙局

汽車要聞

"家轎之王"變帥了 東風(fēng)日產(chǎn)全新軒逸量產(chǎn)下線

態(tài)度原創(chuàng)

家居
時尚
旅游
游戲
公開課

家居要聞

包絡(luò)石木為生 野性舒適

普通人就該照搬這些穿搭!衣服不用買太貴,自然耐看又舒適

旅游要聞

屬馬、姓馬游客免費!2026全國景區(qū)免票福利匯總第二波!

《黑神話》再登國區(qū)暢銷榜前十!佳作熱度不減

公開課

李玫瑾:為什么性格比能力更重要?

無障礙瀏覽 進(jìn)入關(guān)懷版