国产av一二三区|日本不卡动作网站|黄色天天久久影片|99草成人免费在线视频|AV三级片成人电影在线|成年人aV不卡免费播放|日韩无码成人一级片视频|人人看人人玩开心色AV|人妻系列在线观看|亚洲av无码一区二区三区在线播放

網(wǎng)易首頁(yè) > 網(wǎng)易號(hào) > 正文 申請(qǐng)入駐

英偉達(dá)+OpenAI:“Wintel效應(yīng)”顯現(xiàn),當(dāng)心掉入后發(fā)劣勢(shì)陷阱

0
分享至

近日,英偉達(dá)在2024 GTC大會(huì)上發(fā)布了多款芯片、軟件產(chǎn)品,引得國(guó)內(nèi)媒體一通兒追捧,什么“核彈”、“炸裂”,總之一個(gè)比一個(gè)驚悚。同樣的追捧也出現(xiàn)在了對(duì)于OpenAI的身上,尤其是其Sora問世之時(shí)更是如此。殊不知,在我們追趕的過程中,極有可能陷入后發(fā)劣勢(shì)的陷阱。

AI的“Wintel效應(yīng)”顯現(xiàn):英偉達(dá)給的,OpenAI們就會(huì)拿走

“安迪給的,比爾就會(huì)拿走(What Andy giveth, Bill taketh away)”。這句源于1990年代在計(jì)算機(jī)會(huì)議上的一句小笑話形象地詮釋了“Wintel效應(yīng)”,即指新軟件總將耗盡新硬件所提高的任何計(jì)算能力。正是借此,直到今天,Wintel不僅依然牢牢控制著PC產(chǎn)業(yè),且雙方依然是全球科技產(chǎn)業(yè)中不可或缺的角色。

那么進(jìn)入現(xiàn)在的AI,尤其是炙手可熱的生成式AI時(shí)代,又當(dāng)如何呢?

眾所周知,生成式AI模型的訓(xùn)練是一個(gè)計(jì)算極為密集的過程。這些模型包含數(shù)百萬(wàn)乃至數(shù)十億個(gè)參數(shù),需要在龐大的數(shù)據(jù)集上進(jìn)行多輪迭代訓(xùn)練。在訓(xùn)練過程中,涉及大量矩陣運(yùn)算和梯度計(jì)算等計(jì)算密集型操作。因此,為確保訓(xùn)練過程的順利進(jìn)行,必須依賴強(qiáng)大的計(jì)算資源來加速。

不同模型訓(xùn)練一輪所需算力

資料來源:《language Models are Few-Shot Learners》,中國(guó)銀河證券研究院

以最近大火的Sora為例,據(jù)銀河證券研究院基于大語(yǔ)言模型推導(dǎo)算力需求方法,對(duì)Sora單次訓(xùn)練算力需求進(jìn)行推演后推測(cè),Sora參數(shù)規(guī)模估算在30B(待確認(rèn)),如果按此參數(shù)測(cè)算,推演出Sora訓(xùn)練單次算力需求或可達(dá)到8.4×10^23Flops,相當(dāng)于GPT-3 175B的2.7倍。而且該研究院認(rèn)為,目前Sora還在初級(jí)階段,仍然存在如能以準(zhǔn)確模擬物理運(yùn)動(dòng)規(guī)律及場(chǎng)景、混淆左右方向、混淆空間細(xì)節(jié)等,而伴隨Sora不斷迭代調(diào)優(yōu),訓(xùn)練數(shù)據(jù)集規(guī)模增大,未來算力需求將呈現(xiàn)指數(shù)級(jí)爆發(fā)式增長(zhǎng)。

國(guó)泰君安則認(rèn)為,Sora大模型延續(xù)了此前GPT模型“源數(shù)據(jù)-Transformer-Diffusion-涌現(xiàn)”的技術(shù)路徑,這意味著其發(fā)展成熟同樣需要“海量數(shù)據(jù)+大規(guī)模參數(shù)+大算力”作為基座,且由于視頻訓(xùn)練所需數(shù)據(jù)量遠(yuǎn)大于文本訓(xùn)練的數(shù)據(jù)量,預(yù)計(jì)Sora大模型將進(jìn)一步拉大算力缺口。

問題來了,如此大的算力需求或者說缺口,誰(shuí)來補(bǔ)?無(wú)疑業(yè)內(nèi)首先想到的就是英偉達(dá)。

說到英偉達(dá),就不得不提及剛剛結(jié)束的,備受業(yè)內(nèi)關(guān)注的英偉達(dá)2024 GTC大會(huì)。雖然相關(guān)的報(bào)道很多,但我們還是要借此看下英偉達(dá)在滿足AI算力需求的技術(shù)和商業(yè)邏輯是什么。

作為GTC大會(huì)的核心,英偉達(dá)發(fā)布了新一代計(jì)算架構(gòu)Blackwell,以及采用Blackwell架構(gòu)的GPUB200及GB200,在FP4精度下,Blackwell 架構(gòu)的AI計(jì)算性能達(dá)到前代Hopper 架構(gòu)的5倍。Blackwell系列GPU采用臺(tái)積電4NP工藝,集成了2080億顆晶體管,且升級(jí)了 Transformer引擎、NVLink等以提升算力。相對(duì)上一代Hopper架構(gòu),Blackwell架構(gòu)的集群化計(jì)算降低了能源消耗及所需的GPU數(shù)量,有望降低計(jì)算成本。

例如在標(biāo)準(zhǔn)的1750億參數(shù)GPT-3基準(zhǔn)測(cè)試中,GB200的性能是H100的7倍,提供的訓(xùn)練算力是H100的4倍。過去,在90天內(nèi)訓(xùn)練一個(gè)1.8萬(wàn)億參數(shù)的MoE架構(gòu)GPT模型,需要8000個(gè)Hopper架構(gòu)GPU,15兆瓦功率;如今,在Blackwell架構(gòu)下進(jìn)行訓(xùn)練,同樣90天時(shí)間的情況下只需要2000個(gè)GPU,以及1/4的能源消耗,是不是很摩爾定律。

這里請(qǐng)注意,英偉達(dá)算力創(chuàng)新和發(fā)展的邏輯是降本增效,而這個(gè)并非是指芯片成本本身,而是AI訓(xùn)練和推理的整體TCO(其實(shí)英偉達(dá)CEO黃仁勛在接受媒體采訪時(shí)提到了),而給外界的感覺越來越貴,是因?yàn)楸籓penAI不斷更迭的大模型們“吃掉”了。

需要說明的是,在演講中,老黃還特別提到2016年贈(zèng)送OpenAI的DGX-1,那也是史上第一次8塊GPU連在一起組成一個(gè)超級(jí)計(jì)算機(jī),當(dāng)時(shí)只有0.17PFlops。從此之后便開啟了訓(xùn)練最大模型所需算力每6個(gè)月翻一倍的增長(zhǎng)之路,并一直延續(xù)到今天,甚至有過之而無(wú)不及。

到這里,看出點(diǎn)兒門道沒?至少在我們看來,也許早在8年前,不管是有意還是無(wú)意,英偉達(dá)和OpenAI就已達(dá)成了類似“Wintel效應(yīng)”式的默契。而我們到今天才看到這種效應(yīng)浮出水面(因?yàn)橛ミ_(dá)和OpenAI彼此間的技術(shù)更迭速度太快、步子太大),由此看來,以后“吃掉”芯片算力的就是大模型了,而根據(jù)MIT的相關(guān)研究,大模型以后根本“吃不飽”,這意味著算力還需增加,而英偉達(dá)與OpenAI的“Wintel效應(yīng)”將繼續(xù)正循環(huán)下去。

追趕GPT國(guó)內(nèi)掀百模大戰(zhàn) 知其然不知所以然

也許正是由于英偉達(dá)和OpenAI跑得太快,中國(guó)的AI,尤其是生成式AI掀起了“比學(xué)趕幫超”的熱潮,這點(diǎn)在大模型方面體現(xiàn)得尤為充分。

自O(shè)penAI的GPT問世,全球沒有哪一個(gè)國(guó)家像我們,在極短的時(shí)間內(nèi)出現(xiàn)了各行各業(yè)都推自己類GPT大模型、中模型、小模型以及各種所謂的行業(yè)模型,甚至有媒體用“百模大戰(zhàn)”形容當(dāng)下國(guó)內(nèi)大模型數(shù)量之多,競(jìng)爭(zhēng)之慘烈。

實(shí)際的情況是,人工智能大模型研發(fā)的關(guān)鍵因素之一是算法,而算法的進(jìn)步又依賴于持之以恒的前沿研究投入。在當(dāng)下國(guó)內(nèi)企業(yè)快節(jié)奏的競(jìng)爭(zhēng)和盈利壓力下,企業(yè)難以做到不計(jì)短期回報(bào)的投入。因而,在這些高風(fēng)險(xiǎn)的創(chuàng)新技術(shù)領(lǐng)域,國(guó)內(nèi)企業(yè)更傾向于采取復(fù)制和追隨策略,國(guó)內(nèi)大模型大多基于國(guó)外公開論文和開源模型的基礎(chǔ)上進(jìn)行模仿和復(fù)制,結(jié)果總是“慢人一步”,最典型的表現(xiàn)就是Sora的出現(xiàn),讓我們又是一驚。

除了“慢人一步”,我們認(rèn)為最為致命的是,上述基于國(guó)外公開論文和開源模型的基礎(chǔ)上進(jìn)行模仿和復(fù)制造成的后果是我們國(guó)內(nèi)企業(yè)對(duì)于大模型會(huì)陷入知其然不知所以然的尷尬。

例如近日,南加州大學(xué)的研究團(tuán)隊(duì)通過一種攻擊方法,成功破解了OpenAI最新版 ChatGPT模型(gpt-3.5-turbo)的參數(shù)規(guī)模,結(jié)果發(fā)現(xiàn)其參數(shù)規(guī)??赡苤挥?0億,而非此前外界猜測(cè)和傳聞的數(shù)百億甚至上千億。

那么隨之而來的是,最初的200億參數(shù)數(shù)據(jù)是否來自誤傳?還是OpenAI之后又對(duì)模型進(jìn)行了壓縮?亦或是OpenAI一直在刻意隱藏ChatGPT的真實(shí)參數(shù)規(guī)模?無(wú)論真相如何,都表明OpenAI在模型優(yōu)化或者算法方面擁有著強(qiáng)大的技術(shù)實(shí)力,它才是GPT的核心。

反觀國(guó)內(nèi)的大模型,以現(xiàn)在排名靠前,用戶最大的百度前文心一言為例,據(jù)新浪科技的報(bào)道,近日,多位文心一言4.0付費(fèi)用戶表示,“買了文心一言4.0會(huì)員,問了幾組問題后發(fā)現(xiàn)質(zhì)量不達(dá)預(yù)期,跟免費(fèi)的版本沒有太多區(qū)別,想要退費(fèi)又聯(lián)系不上客服,覺得有點(diǎn)虧?!痹诤谪埻对V“投訴入口”平臺(tái)上,目前文心一言也是國(guó)內(nèi)唯一一款收到多位用戶投訴的對(duì)話式AI產(chǎn)品。而新浪科技實(shí)測(cè)發(fā)現(xiàn),目前這些版本功能相對(duì)單一,除了滿足基本的嘗鮮要求外,確實(shí)難以與其他相似的免費(fèi)工具拉開差距,甚至于在交互體驗(yàn)和內(nèi)容即時(shí)性上,也開始落后于國(guó)內(nèi)同行。

又如創(chuàng)新工場(chǎng)董事長(zhǎng)兼CEO李開復(fù)創(chuàng)辦的AI大模型創(chuàng)業(yè)公司“零一萬(wàn)物”去年11月推出的Yi-34B和Yi-6B兩個(gè)開源大模型“抄襲 LLaMA”事件,雖然其始終沒有承認(rèn)抄襲,但也承認(rèn)做法不妥,承諾將修改爭(zhēng)議張量名。

號(hào)稱國(guó)內(nèi)領(lǐng)先和AI領(lǐng)軍人物創(chuàng)辦公司的大模型尚且如此,至于其他所謂大模型,相信人們都會(huì)有自己的判斷。

AI算力芯片挑戰(zhàn)英偉達(dá) 陷入純算力PK誤區(qū)

如果上述是我們國(guó)內(nèi)在生成式AI“軟”(大模型)方面與GPT的競(jìng)爭(zhēng)是知其然不知所以然,那么在“硬”(AI芯片)方面表現(xiàn)又如何呢?

目前,具有國(guó)產(chǎn)AI加速芯片(等同于英偉達(dá)的GPU)的企業(yè)包括阿里巴巴(含光系列)、百度(昆侖系列)、華為(昇騰系列)、寒武紀(jì)(思元系列)、海光信息(深算系列)、燧原科技、天數(shù)智芯、壁仞科技、摩爾線程等。此外,景嘉微、龍芯中科也在研發(fā)云端AI加速芯片。

這里我們以媒體近期報(bào)道最多、最具代表性,同時(shí)也被認(rèn)為最具挑戰(zhàn)英偉達(dá)的華為昇騰和海光信息的深算為例來予以說明。

先看華為昇騰系列,據(jù)相關(guān)媒體報(bào)道,經(jīng)過測(cè)試,目前在大模型推理方面,國(guó)內(nèi)AI芯片910B僅能達(dá)到A100的60%-70%左右,集群的模型訓(xùn)練難以為繼;同時(shí),910B在算力功耗、發(fā)熱等方面遠(yuǎn)高于英偉達(dá)A100/H100系列產(chǎn)品,且無(wú)法兼容CUDA,很難完全滿足長(zhǎng)期智算中心的模型訓(xùn)練需求。對(duì)此,有大型國(guó)企客戶評(píng)價(jià),華為昇騰確實(shí)夠用,但不好用。原因何在?

其實(shí)不要說華為910B,其在2019年8月發(fā)布的昇騰910在某些媒體曝光的紙面數(shù)據(jù)上,就與英偉達(dá)在2020年5月發(fā)布的A100性能相當(dāng),但是華為不具備深度學(xué)習(xí)框架生態(tài)掌控力,導(dǎo)致Tensorflow/Pytorch兩大主流深度學(xué)習(xí)訓(xùn)練框架沒有基于華為昇騰910做特定的優(yōu)化,相反,PyTorch、TensorFlow等主流的深度學(xué)習(xí)框架均提供了基于CUDA的英偉達(dá)GPU的運(yùn)算支持,同時(shí)還有更高層、更抽象的調(diào)用方式,方便用戶編程。所以算法結(jié)合上述兩大訓(xùn)練框架在昇騰910上實(shí)際跑出來的性能其實(shí)不如英偉達(dá)A100,而目前僅華為自研的深度學(xué)習(xí)框架MindSpore對(duì)昇騰910和昇騰310做了特別優(yōu)化,但由于華為MindSpore大部分精力都是放在對(duì)昇騰芯片的算子支持和優(yōu)化上,對(duì)英偉達(dá)GPU的支持還不夠,只有同時(shí)使用華為的深度學(xué)習(xí)框架和昇騰芯片才能同時(shí)發(fā)揮出兩者的最佳性能。

而要想在深度學(xué)習(xí)訓(xùn)練框架要想打破Tensorflow和Pytorch的壟斷必須要靠原始創(chuàng)新,但目前包括華為基于開源的MindSpore等在內(nèi)的國(guó)產(chǎn)深度學(xué)習(xí)框架尚未很好解決上述兩大訓(xùn)練框架的痛點(diǎn)。

說到深度學(xué)習(xí)框架,回望Caffe,其之所以能夠在早期獲得開發(fā)者歡迎是因?yàn)榻鉀Q了深度學(xué)習(xí)框架從0到1的過程,Tensorflow之所以可以取代Caffe是因?yàn)榻鉀Q了其不夠靈活、不能自動(dòng)求導(dǎo) 、對(duì)非計(jì)算機(jī)視覺任務(wù)支持不好等問題,Pytorch之所以明顯搶奪Tensorflow的份額是因?yàn)镻ytorch引入了動(dòng)態(tài)圖解決了Tensorflow是靜態(tài)圖設(shè)計(jì)調(diào)試?yán)щy的問題。

相比之下,不僅是華為MindSpore,目前國(guó)產(chǎn)的深度學(xué)習(xí)框架百度Paddle Paddle、曠視Megengine等均還沒有完美解決開發(fā)者在用Tensorflow和Pytorch所遇到的痛點(diǎn)。

此外,將AI芯片作為訓(xùn)練和推理,構(gòu)建集群的能力至關(guān)重要,而這又和互聯(lián)技術(shù)密切相關(guān)。

而提及互聯(lián)技術(shù),英偉達(dá)的NVlink通訊模組是目前市場(chǎng)上最先進(jìn)的技術(shù)。盡管華為聲稱自己的卡間互聯(lián)技術(shù)(模仿NVlink模式)也不錯(cuò),但在進(jìn)行8卡同時(shí)算力的訓(xùn)練模型訓(xùn)練時(shí),與英偉達(dá)的技術(shù)相比仍存在差距。樂觀地估計(jì),要達(dá)到英偉達(dá)的技術(shù)水平,可能還需要兩到三年的時(shí)間。不過,日前英偉達(dá)第五代NVLink,可為每個(gè)GPU提供了1.8TB/s雙向吞吐量,確保多達(dá)576個(gè)GPU之間的無(wú)縫高速通信,適用于復(fù)雜大語(yǔ)言模型的發(fā)布,恐怕又會(huì)將華為甩開距離。

至于服務(wù)器與服務(wù)器之間的互聯(lián),目前大部分通用AI服務(wù)器之間的互聯(lián),英偉達(dá)推薦使用其IB交換機(jī),因?yàn)檫@種交換模式在數(shù)據(jù)損失量方面表現(xiàn)最佳,技術(shù)成熟且經(jīng)過20多年的市場(chǎng)驗(yàn)證,至今連模仿者都未能出現(xiàn)。

需要補(bǔ)充說明的是,由于華為受到非市場(chǎng)因素的影響越來越大,即便未來性能與英偉達(dá)產(chǎn)品在實(shí)際使用中相近,但由于制造工序等問題,未來差距可能會(huì)擴(kuò)大。有部分報(bào)道稱,昇騰的成品率僅為20%左右。這無(wú)疑使得上述類似國(guó)企的用戶們,在不好用的同時(shí),還會(huì)抬高他們使用昇騰的成本。

接下來,我們?cè)诳春9庑畔⒌纳钏糄CU。

追根溯源,海光的DCU源自AMD的MI100芯片,這在其此前的招股說明書有描述。從源頭可以看出,海光DCU是AMD Mi100的裁剪版,裁剪了50%的性能。最關(guān)鍵的痛點(diǎn)是,海光DCU從Mi100授權(quán)過來時(shí),把GPU的互聯(lián)接口(類似NVlink)從AMD的Infinity Fabric縮減成了xGMI接口(顯卡場(chǎng)景),導(dǎo)致最多只能兩顆GPU直聯(lián)。因此無(wú)法組成大規(guī)模陣列(Nvidia A100可以16GPU集群,H100 256GPU集群),基本上喪失了訓(xùn)練能力(浮點(diǎn)性能低和無(wú)法集群組網(wǎng));至于推理能力,場(chǎng)景性價(jià)比很低,大概是2022年代主流專用推理芯片的10%—15%性能。

另外,深思屬于兼容“類 CUDA”生態(tài),但由于CUDA的閉源特性和快速迭代,后來者很難通過指令翻譯等方式完美兼容,即使部分兼容也會(huì)有較大的性能損失,導(dǎo)致在性價(jià)比上會(huì)持續(xù)落后英偉達(dá)。

更不利的是,近日有消息稱,英偉達(dá)可能禁止第三方硬件,也就是非英偉達(dá)的GPU,通過使用模擬層運(yùn)行CUDA軟件,而之前英偉達(dá)只是在在線EULA用戶協(xié)議中提出警告而已。雖然對(duì)此業(yè)內(nèi)持有不同的看法,但不管最后是否會(huì)付諸于行動(dòng),都暴露出所謂兼容CUDA所蘊(yùn)含的巨大和未知的風(fēng)險(xiǎn)。

當(dāng)然,隨著深思的更新迭代,尤其是今年可能發(fā)布的深思三,希望上述短板可以有所改觀。

綜上,我們認(rèn)為,在生成式AI中“硬”的AI芯片方面,我們的真實(shí)實(shí)力遠(yuǎn)非某些媒體報(bào)道的那么樂觀,而這又和我們相關(guān)企業(yè)缺乏原始創(chuàng)新、走模仿(技術(shù))和兼容(生態(tài))的路線密切相關(guān)。

寫在最后:不可否認(rèn),在AI,尤其是生成式AI方面,我們已經(jīng)失去了先發(fā)優(yōu)勢(shì),但更可怕的是,從目前的發(fā)展路徑看,為了追趕英偉達(dá)和OpenAI這一新的“Wintel效應(yīng)”和借助被制裁而出現(xiàn)新的爭(zhēng)奪國(guó)內(nèi)AI芯片市場(chǎng)的所謂機(jī)會(huì),我們有可能被人家?guī)牒蟀l(fā)劣勢(shì)中,即借鑒和依賴往往無(wú)法標(biāo)定涇渭分明的界限,在學(xué)習(xí)借鑒過程中形成“模式依賴”“路徑依賴”“技術(shù)依賴”。只“借”不“鑒”、抑或是只借鑒不創(chuàng)新,知其然而不知其所以然,形成依賴性而不自知,甚至還沾沾自喜,進(jìn)而使得我們?cè)诟冻龈筚Y源和社會(huì)成本、與人家科技創(chuàng)新和發(fā)展的邏輯是降本增效背道而馳的同時(shí),導(dǎo)致差距會(huì)越來越大。

聲明:個(gè)人原創(chuàng),僅供參考

特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺(tái)“網(wǎng)易號(hào)”用戶上傳并發(fā)布,本平臺(tái)僅提供信息存儲(chǔ)服務(wù)。

Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.

相關(guān)推薦
熱點(diǎn)推薦
恭喜俄羅斯和烏克蘭!打了1500天,終于打成全世界都喜歡的樣子!

恭喜俄羅斯和烏克蘭!打了1500天,終于打成全世界都喜歡的樣子!

溫讀史
2026-04-08 17:38:05
中國(guó)男籃國(guó)手王俊杰宣布將轉(zhuǎn)校 感謝過去3年在舊金山大學(xué)的時(shí)光

中國(guó)男籃國(guó)手王俊杰宣布將轉(zhuǎn)校 感謝過去3年在舊金山大學(xué)的時(shí)光

醉臥浮生
2026-04-08 09:45:09
“國(guó)家愛我,我才愛國(guó)家”:美國(guó)為什么執(zhí)著于“把人帶回來”

“國(guó)家愛我,我才愛國(guó)家”:美國(guó)為什么執(zhí)著于“把人帶回來”

入木三分談
2026-04-06 15:55:55
73歲李立群再為全紅嬋發(fā)聲:不指望她再為國(guó)奪金 她背后有高人指點(diǎn)

73歲李立群再為全紅嬋發(fā)聲:不指望她再為國(guó)奪金 她背后有高人指點(diǎn)

風(fēng)過鄉(xiāng)
2026-04-07 21:56:53
山東旋轉(zhuǎn)門后續(xù):逼員工鞠躬的家長(zhǎng)懵了,監(jiān)控+通報(bào)雙雙打臉!

山東旋轉(zhuǎn)門后續(xù):逼員工鞠躬的家長(zhǎng)懵了,監(jiān)控+通報(bào)雙雙打臉!

奇思妙想草葉君
2026-04-07 21:39:15
零緩沖!全國(guó)一刀切!6月1日起,車主自己去車管所“橫著走”!

零緩沖!全國(guó)一刀切!6月1日起,車主自己去車管所“橫著走”!

混沌錄
2026-04-07 22:00:19
美國(guó)傷亡人數(shù)出爐

美國(guó)傷亡人數(shù)出爐

楊興文
2026-04-04 22:04:35
在岸人民幣兌美元匯率升至2023年3月以來最高水平

在岸人民幣兌美元匯率升至2023年3月以來最高水平

每日經(jīng)濟(jì)新聞
2026-04-08 09:54:06
車輛排氣管被堵塞鋼絲球 女車主報(bào)警懸賞尋線索!網(wǎng)友:為啥被塞呢

車輛排氣管被堵塞鋼絲球 女車主報(bào)警懸賞尋線索!網(wǎng)友:為啥被塞呢

快科技
2026-04-08 09:18:15
伊朗和阿曼將就霍爾木茲海峽收取通行費(fèi)?中方表態(tài)

伊朗和阿曼將就霍爾木茲海峽收取通行費(fèi)?中方表態(tài)

環(huán)球網(wǎng)資訊
2026-04-08 16:22:09
特朗普威脅對(duì)向伊朗供武國(guó)家征收50%關(guān)稅

特朗普威脅對(duì)向伊朗供武國(guó)家征收50%關(guān)稅

界面新聞
2026-04-08 19:49:01
伊朗發(fā)布美軍士兵遺體照:在一架墜毀運(yùn)輸機(jī)殘骸中發(fā)現(xiàn),這是特朗普“可恥失敗的又一證據(jù)”

伊朗發(fā)布美軍士兵遺體照:在一架墜毀運(yùn)輸機(jī)殘骸中發(fā)現(xiàn),這是特朗普“可恥失敗的又一證據(jù)”

都市快報(bào)橙柿互動(dòng)
2026-04-06 14:32:22
美媒:美軍的新導(dǎo)彈讓中國(guó)大吃一驚,解放軍的殺手锏已經(jīng)沒用了

美媒:美軍的新導(dǎo)彈讓中國(guó)大吃一驚,解放軍的殺手锏已經(jīng)沒用了

阿紿聊社會(huì)
2026-04-08 14:30:46
日本要求伊朗盡快放人

日本要求伊朗盡快放人

環(huán)球時(shí)報(bào)國(guó)際
2026-04-07 22:35:35
形勢(shì)大變,以德為首的西方國(guó)家齊發(fā)聲:中國(guó)已在換電關(guān)鍵領(lǐng)域崛起

形勢(shì)大變,以德為首的西方國(guó)家齊發(fā)聲:中國(guó)已在換電關(guān)鍵領(lǐng)域崛起

無(wú)月可歸辛
2026-04-08 11:04:56
曾經(jīng)的亞洲第一美人,年輕時(shí)傾國(guó)傾城,現(xiàn)在卻老了。美人也會(huì)老啊

曾經(jīng)的亞洲第一美人,年輕時(shí)傾國(guó)傾城,現(xiàn)在卻老了。美人也會(huì)老啊

手工制作阿殲
2026-04-08 11:43:30
549億遺產(chǎn)稅后李在镕獨(dú)贏,三星再無(wú)“長(zhǎng)公主”

549億遺產(chǎn)稅后李在镕獨(dú)贏,三星再無(wú)“長(zhǎng)公主”

和訊網(wǎng)
2026-04-08 10:42:20
離譜!里夫斯被誤診!

離譜!里夫斯被誤診!

鏗鏘格斗
2026-04-08 17:42:45
伊朗官員:若美不接受十點(diǎn)計(jì)劃,最高領(lǐng)袖將不會(huì)批準(zhǔn)?;饏f(xié)議

伊朗官員:若美不接受十點(diǎn)計(jì)劃,最高領(lǐng)袖將不會(huì)批準(zhǔn)停火協(xié)議

界面新聞
2026-04-08 16:01:38
WTI原油期貨跌幅擴(kuò)大至19%

WTI原油期貨跌幅擴(kuò)大至19%

證券時(shí)報(bào)
2026-04-08 07:44:04
2026-04-08 20:08:49
孫永杰的ICT評(píng)論 incentive-icons
孫永杰的ICT評(píng)論
專注獨(dú)家、獨(dú)立的觀點(diǎn)
431文章數(shù) 6234關(guān)注度
往期回顧 全部

科技要聞

造出地表最強(qiáng)AI,卻死活不給你用!

頭條要聞

男子稱套中的鸚鵡致父親高燒患肺炎:治療25天花費(fèi)18萬(wàn)

頭條要聞

男子稱套中的鸚鵡致父親高燒患肺炎:治療25天花費(fèi)18萬(wàn)

體育要聞

40歲,但實(shí)力倒退12年

娛樂要聞

楊穎鄧超低調(diào)現(xiàn)身觀眾席 支持陳赫話劇

財(cái)經(jīng)要聞

天津海河乳業(yè)回應(yīng)直播間涉黃

汽車要聞

5門5座/新復(fù)古造型 繽果Pro將于4月14日開啟預(yù)售

態(tài)度原創(chuàng)

本地
時(shí)尚
房產(chǎn)
教育
公開課

本地新聞

跟著歌聲游安徽,聽古村回響

防曬專場(chǎng)|| 幾十塊到手,回購(gòu)一年多才來推薦

房產(chǎn)要聞

海南樓市最新熱銷榜單發(fā)布,三亞又賣爆了!

教育要聞

居家 | 這4件事,正在悄悄“偷走”孩子的語(yǔ)言能力,很多家長(zhǎng)每天都在做

公開課

李玫瑾:為什么性格比能力更重要?

無(wú)障礙瀏覽 進(jìn)入關(guān)懷版