国产av一二三区|日本不卡动作网站|黄色天天久久影片|99草成人免费在线视频|AV三级片成人电影在线|成年人aV不卡免费播放|日韩无码成人一级片视频|人人看人人玩开心色AV|人妻系列在线观看|亚洲av无码一区二区三区在线播放

網(wǎng)易首頁 > 網(wǎng)易號 > 正文 申請入駐

密蘇里科技大學突破:AI預警GitHub社區(qū)沖突準確率超90%

0
分享至


這項由密蘇里科技大學的Mia Mohammad Imran領導的研究團隊完成的突破性研究,發(fā)表于2025年12月的國際軟件工程會議,該研究首次實現(xiàn)了對GitHub開源軟件社區(qū)中有害討論的提前預警。研究團隊還包括來自埃爾姆赫斯特大學的Robert Zita、弗吉尼亞聯(lián)邦大學的Rahat Rizvi Rahman和Kostadin Damevski,以及德雷塞爾大學的Preetha Chatterjee。有興趣深入了解的讀者可以通過arXiv:2512.15031v1查詢完整論文。

開源軟件就像一個巨大的協(xié)作廚房,來自世界各地的程序員們在這里共同烹飪代碼大餐。然而,就像任何需要多人合作的地方一樣,有時候廚師們會因為調料放多少、火候怎么掌控這些問題產(chǎn)生分歧,甚至吵得不可開交。GitHub作為全球最大的開源代碼托管平臺,每天都有數(shù)百萬開發(fā)者在這里討論技術問題,但遺憾的是,64%的開發(fā)者都曾經(jīng)歷過或目睹過負面互動,其中21%的人甚至因此停止了貢獻。

以往,開源社區(qū)對付惡劣言論的方式就像救火隊一樣——等火燒起來了才去撲滅。雖然事后處理能減輕一些損害,但往往為時已晚,不僅傷害已經(jīng)造成,還可能讓本來想貢獻代碼的好心人徹底失望離開。研究團隊意識到,如果能像天氣預報一樣提前預測討論何時會"變味",就能在矛盾激化前及時干預,保護社區(qū)和諧。

研究團隊開發(fā)了一個相當于"社區(qū)氣氛探測器"的AI系統(tǒng)。這個系統(tǒng)不是等著惡劣言論出現(xiàn)才報警,而是通過分析對話的發(fā)展軌跡,在討論剛開始偏離正軌時就發(fā)出預警。就像經(jīng)驗豐富的調解員能從人們的語氣變化中察覺到爭吵的苗頭一樣,這個AI系統(tǒng)能夠識別對話中的微妙信號,判斷一場技術討論是否可能演變成惡言相向的爭吵。

一、揭秘GitHub討論"變味"的規(guī)律

研究團隊首先想了解,一場正常的技術討論是如何一步步演變成惡劣爭吵的。他們精心收集了366個GitHub討論串,其中159個最終演變成了有害討論,207個則保持了良性狀態(tài)。這就像研究兩群人聚餐,一群最后和和氣氣,另一群卻吵得不可開交,看看到底是什么因素導致了不同的結果。

在分析這些"變味"的討論時,研究團隊發(fā)現(xiàn)了一個有趣的現(xiàn)象:惡劣言論往往不是突然爆發(fā)的,而是有跡可循的。他們把這個關鍵轉折點稱為"脫軌點"——就像火車開始偏離正常軌道的那個瞬間。在這個脫軌點,討論開始偏離原本的技術話題,參與者的語氣變得更加對抗性,雖然還沒有完全撕破臉皮,但已經(jīng)埋下了沖突的種子。

通過深入分析,研究團隊發(fā)現(xiàn)了一個驚人的時間規(guī)律:從脫軌點到第一條惡劣言論出現(xiàn),中位數(shù)距離僅僅是3條評論。換句話說,一旦討論開始偏離正軌,很快就會徹底惡化。更令人擔憂的是,64%的惡劣言論會在脫軌后的24小時內出現(xiàn)。這種快速惡化的特點讓研究團隊意識到,及時預警的重要性不言而喻——就像森林火災一樣,如果不在起火的那一刻就發(fā)現(xiàn)并控制,很快就會蔓延成燎原大火。

研究團隊還發(fā)現(xiàn)了語言使用上的明顯變化。在討論即將脫軌的評論中,參與者開始頻繁使用第二人稱代詞,比如"你"、"你的",這表明討論從客觀的技術問題轉向了針對個人的指責。同時,否定詞匯、疑問詞、推理詞匯的使用頻率也大幅增加。這就像兩個人從討論問題變成了質疑對方,從"這個方法有什么優(yōu)缺點"變成了"你為什么要這樣做"。

在情緒色彩方面,脫軌點的評論中最常見的是"痛苦挫折"情緒,占42.82%,其次是"不耐煩"情緒,占22.65%。這些情緒就像暴風雨前的烏云,預示著更大的風暴即將來臨。相比之下,在完全惡化的言論中,"侮辱性"語言的比例會急劇上升到25.35%,顯示了從情緒表達到人身攻擊的明顯升級。

研究團隊還識別出了導致討論脫軌的主要觸發(fā)因素。排名第一的是"工具使用失敗或錯誤信息",占23.27%,比如代碼運行出錯或者工具使用不當引發(fā)的挫折感。第二大觸發(fā)因素是"技術分歧",占20.12%,當開發(fā)者對技術方案有根本性不同觀點時,很容易演變成激烈爭論。第三大因素是"溝通障礙",占16.98%,包括誤解、語言障礙或者表達不清造成的矛盾。

二、AI預警系統(tǒng)的工作原理

面對這些發(fā)現(xiàn),研究團隊決定開發(fā)一個能夠提前預警的AI系統(tǒng)。他們的創(chuàng)新思路是讓AI扮演一個經(jīng)驗豐富的社區(qū)觀察員角色,不是簡單地識別已經(jīng)出現(xiàn)的惡劣言論,而是通過觀察對話的發(fā)展軌跡來判斷風險。

這個系統(tǒng)的工作方式類似于一個兩步走的診斷過程。第一步,AI會像一個細心的記錄員,把整個討論過程總結成一份"對話動態(tài)摘要"。這個摘要不關注技術細節(jié),而是專注于人際互動模式——誰在與誰交流、語氣如何變化、是否出現(xiàn)了緊張跡象等等。就像醫(yī)生看病時不只看癥狀,還要了解病情的發(fā)展過程一樣。

第二步,AI會基于這份摘要來評估討論演變成惡劣爭吵的概率。這就像天氣預報員根據(jù)各種氣象數(shù)據(jù)來預測降雨概率一樣,AI會給出一個0到1之間的數(shù)值,表示討論"變味"的可能性。

為了讓AI更好地理解GitHub討論的特殊性,研究團隊采用了一種名為"從簡到繁"的提示策略。這種策略讓AI從宏觀觀察開始,逐步深入到細節(jié)分析。具體來說,AI首先識別討論的主要元素,然后分析每個參與者的意圖,接著觀察對話策略的使用,追蹤情感演變,尋找緊張觸發(fā)點,最后綜合所有信息生成預測。

這種方法的巧妙之處在于,它模仿了人類理解復雜社交情境的自然過程。當我們觀察一群人的討論時,我們也是先把握整體氛圍,然后注意到個體行為,最后綜合判斷局勢發(fā)展方向。研究團隊發(fā)現(xiàn),讓AI按照這種自然的認知流程來分析,比直接讓它輸出結論要有效得多。

在實際應用中,系統(tǒng)生成的對話摘要讀起來就像一個第三方觀察者的客觀描述。比如:"多個用戶就最近一次代碼提交的回退問題展開辯論。發(fā)言人A表達了強烈反對,并提及了之前涉及類似代碼的事件。發(fā)言人B質疑A的表述方式,指責其歪曲過往決定。發(fā)言人C支持B的觀點,并指出A已經(jīng)在另一個討論串中提出過這個擔憂。A變得更加對抗性,聲稱存在被故意忽視的模式。隨著過往互動被用來質疑動機,對話變得越來越激烈,語調不斷升級,幾乎看不到解決的跡象。"

三、系統(tǒng)性能驗證與對比

為了驗證這個AI預警系統(tǒng)的有效性,研究團隊進行了全面的性能測試。他們使用了兩個最先進的開源大語言模型:Qwen和Llama。測試結果令人印象深刻——在0.3的決策閾值下,Qwen模型達到了90.1%的F1分數(shù),Llama模型也達到了85.2%的F1分數(shù)。

這個F1分數(shù)就像考試成績一樣,綜合反映了系統(tǒng)的準確性和完整性。90.1%的分數(shù)意味著,如果有100場可能惡化的討論,系統(tǒng)能正確識別出90場,同時很少出現(xiàn)誤報。這個成績遠遠超過了現(xiàn)有的基準方法。

研究團隊還將他們的方法與兩個重要的對比基準進行了比較。第一個是CRAFT模型,這是2019年提出的經(jīng)典對話脫軌預測方法,但它在GitHub數(shù)據(jù)上的最佳F1分數(shù)只有58%。第二個是華等人提出的對話摘要方法,雖然思路相似,但采用了簡單的少樣本提示策略,在Qwen模型上只達到了74.7%的F1分數(shù)。

這種顯著的性能提升主要歸功于研究團隊提出的"從簡到繁"提示策略。通過讓AI按照自然的認知流程來分析對話,系統(tǒng)能夠更準確地捕捉到討論脫軌的微妙信號。就像訓練有素的調解員比新手更能察覺到爭吵的苗頭一樣,經(jīng)過精心設計的AI系統(tǒng)也表現(xiàn)出了更強的預判能力。

為了了解系統(tǒng)各個組件的貢獻,研究團隊還進行了詳細的拆解分析。他們發(fā)現(xiàn),情感演變跟蹤和緊張觸發(fā)點識別是最關鍵的兩個組件。當移除情感分析功能時,系統(tǒng)的F1分數(shù)下降了7.8個百分點;當移除緊張觸發(fā)點檢測時,分數(shù)下降了6.5個百分點。這證實了研究團隊最初的假設:理解討論的情感軌跡和識別潛在沖突點對于預測脫軌至關重要。

四、外部驗證與泛化能力

為了證明這個預警系統(tǒng)不僅僅在特定數(shù)據(jù)集上有效,研究團隊還在一個完全獨立的數(shù)據(jù)集上進行了驗證。這個數(shù)據(jù)集來自另一個研究團隊收集的GitHub討論,包含308個討論串,其中65個有害,243個無害。這種驗證就像讓一個在北方地區(qū)訓練的天氣預報系統(tǒng)到南方地區(qū)接受考驗,看看是否仍然準確。

在這個外部數(shù)據(jù)集上,系統(tǒng)仍然表現(xiàn)出色。Qwen模型達到了79.7%的F1分數(shù),Llama模型達到了77.6%的F1分數(shù)。雖然比在原始數(shù)據(jù)集上的表現(xiàn)略有下降,但仍然顯著超過了對比方法。這種穩(wěn)定的跨數(shù)據(jù)集性能表明,系統(tǒng)確實學到了GitHub討論脫軌的一般規(guī)律,而不是僅僅記住了特定數(shù)據(jù)的模式。

這種泛化能力的重要性不言而喻。在實際應用中,AI系統(tǒng)必須面對各種不同的社區(qū)、項目和討論風格。一個只在特定環(huán)境下有效的系統(tǒng)就像只能在實驗室工作的機器人,無法適應真實世界的復雜性。研究團隊的系統(tǒng)展現(xiàn)出的跨環(huán)境適應能力,為其實際部署奠定了堅實基礎。

外部驗證還揭示了一些有趣的發(fā)現(xiàn)。不同數(shù)據(jù)集之間的類別分布差異較大——外部數(shù)據(jù)集中有害討論的比例明顯更低,更接近真實GitHub環(huán)境的實際情況。在這種更加不平衡的數(shù)據(jù)分布下,系統(tǒng)仍能保持良好性能,說明它能夠適應真實世界的應用場景。

五、錯誤分析與系統(tǒng)局限

為了更好地理解系統(tǒng)的優(yōu)勢和不足,研究團隊對預測錯誤進行了深入分析。他們發(fā)現(xiàn)了兩類主要錯誤:誤報和漏報。誤報是指系統(tǒng)錯誤地將正常討論標記為可能脫軌,共8例;漏報是指系統(tǒng)未能識別出實際會脫軌的討論,共22例。

在8個誤報案例中,主要問題是系統(tǒng)過度估計了原本和諧交流中的緊張程度。比如,當開發(fā)者們在技術觀點上存在分歧但保持禮貌討論時,系統(tǒng)有時會誤判為對抗性交流。另一個常見問題是對話摘要準確但預測器錯誤評估了語氣的嚴重程度,就像一個過于敏感的煙霧報警器,把煮飯的蒸汽當成了火災信號。

在22個漏報案例中,最常見的問題是未能識別或低估微妙的惡意信號,特別是挫折情緒,占10例。系統(tǒng)有時難以捕捉到諷刺或細微的語調變化,這就像一個不太懂人情世故的人,聽不出話里的弦外之音。還有3例是系統(tǒng)生成的摘要本身準確,但預測器的判斷有誤。另外3例涉及惡意言論在脫軌很久之后才出現(xiàn),這削弱了早期信號的預測價值。

這些錯誤分析為系統(tǒng)的進一步改進指明了方向。研究團隊發(fā)現(xiàn),提高對微妙語調和隱含情緒的識別能力是關鍵改進點。同時,平衡敏感度也很重要——既要能捕捉到細微的預警信號,又不能過度敏感導致太多誤報。

六、實際應用前景與建議

基于研究結果,團隊為不同的用戶群體提出了具體的應用建議。對于GitHub倉庫的維護者來說,他們可以將這種預警系統(tǒng)集成到現(xiàn)有的管理流程中。系統(tǒng)可以作為一個輕量級的預警工具,在討論可能惡化時提醒維護者關注,而不需要人工持續(xù)監(jiān)控每一個討論串。

實際部署時,可以采用分層干預策略。當系統(tǒng)預測概率較高時(比如超過0.7),可以直接通知維護者人工介入;當概率中等時(0.3到0.7之間),可以自動發(fā)送友好提醒,鼓勵參與者保持建設性討論;當概率較低時,則無需干預。這種分層策略既能及時應對高風險情況,又能避免過度干預正常討論。

考慮到64%的惡劣言論會在脫軌后24小時內出現(xiàn),系統(tǒng)的運行頻率也需要仔細規(guī)劃。對于活躍的討論,建議每小時運行一次檢測;對于相對平靜的討論,每當有新評論時運行一次即可。這樣可以在及時性和計算成本之間找到平衡點。

系統(tǒng)生成的對話摘要還為維護者提供了寶貴的背景信息。當收到預警時,維護者不需要從頭閱讀整個討論串,而是可以通過摘要快速了解情況發(fā)展,做出更有針對性的干預決策。這就像急診醫(yī)生接到救護車通報時,能提前了解病人情況,做好相應準備。

對于研究社區(qū),這項工作開辟了多個有趣的研究方向。首先是改進提示設計,使AI能更一致地捕捉對話脫軌信號。其次是開發(fā)標準化的跨平臺評估基準,讓不同方法能在統(tǒng)一標準下比較。第三是探索效率和可擴展性問題,比如開發(fā)增量更新摘要的方法,而不是每次都重新處理整個討論。

研究團隊還強調了透明度和可解釋性的重要性。與傳統(tǒng)的黑箱AI系統(tǒng)不同,他們的方法通過生成可讀的對話摘要,讓人類能夠理解系統(tǒng)的判斷依據(jù)。這種可解釋性對于獲得用戶信任和支持至關重要,特別是在涉及言論管理這種敏感話題時。

盡管取得了令人鼓舞的結果,研究團隊也誠實地指出了系統(tǒng)的局限性。首先,數(shù)據(jù)集主要來自GitHub平臺,可能不能完全推廣到其他類型的在線社區(qū)。不同平臺有不同的用戶群體、討論文化和規(guī)范,這些差異可能影響系統(tǒng)的適用性。

其次,系統(tǒng)主要針對逐漸升級的沖突,對于突然爆發(fā)的惡劣言論效果有限。在現(xiàn)實中,確實存在一些討論參與者情緒失控,在沒有明顯預警信號的情況下突然發(fā)表攻擊性言論。這類情況仍然需要依賴傳統(tǒng)的事后檢測和處理方法。

最后,由于許多公開的GitHub討論可能已經(jīng)被用于大語言模型的訓練數(shù)據(jù),存在潛在的數(shù)據(jù)泄露風險,這可能會略微提高性能估計。為了驗證系統(tǒng)的真實效果,需要在完全未見過的平臺或領域進行更廣泛的驗證。

說到底,這項研究代表了從被動應對向主動預防的重要轉變。就像從治病變成了防病,從救火變成了防火,這種思路轉變可能會從根本上改變在線社區(qū)的管理方式。雖然還有很多細節(jié)需要完善,但研究團隊已經(jīng)證明了AI預警系統(tǒng)的可行性和有效性。

隨著開源軟件越來越成為現(xiàn)代技術發(fā)展的基石,維護健康和諧的開發(fā)者社區(qū)比以往任何時候都更加重要。這個AI預警系統(tǒng)為實現(xiàn)這個目標提供了一個有力工具。當然,技術只是手段,最終還是需要社區(qū)成員的共同努力和相互理解。歸根結底,建設更好的開源社區(qū)需要的不僅僅是更智能的算法,更需要更多的包容、耐心和善意。不過,有了這樣的智能助手,我們至少可以在矛盾升級之前得到提醒,為化解沖突爭取更多時間和機會。

Q&A

Q1:這個AI預警系統(tǒng)具體如何判斷GitHub討論會變成惡劣爭吵?

A:系統(tǒng)通過兩步分析來判斷。首先,AI會生成一份"對話動態(tài)摘要",記錄參與者的互動模式、語氣變化和緊張跡象,就像一個客觀觀察員描述現(xiàn)場情況。然后,基于這份摘要預測討論惡化的概率,從0到1打分。系統(tǒng)特別關注語言使用變化(如頻繁使用"你"進行指責)、情緒演變(如挫折和不耐煩)以及特定觸發(fā)因素(如代碼錯誤引發(fā)的爭議)。

Q2:AI預警系統(tǒng)的準確率有多高,會不會經(jīng)常誤報?

A:系統(tǒng)在測試中表現(xiàn)優(yōu)秀,F(xiàn)1分數(shù)達到90.1%,這意味著能正確識別大部分風險討論且很少誤報。在錯誤分析中,系統(tǒng)主要存在兩類問題:8例誤報(把正常討論誤判為可能脫軌)和22例漏報(未能識別實際脫軌討論)。誤報主要是過度估計技術分歧的嚴重程度,漏報主要是難以捕捉諷刺等微妙惡意信號。

Q3:這個預警系統(tǒng)什么時候能在GitHub上使用,普通開發(fā)者怎么受益?

A:目前這還是研究階段的原型系統(tǒng),尚未正式部署到GitHub平臺。研究團隊建議可以采用分層干預策略:高風險時通知維護者人工介入,中等風險時自動發(fā)送友好提醒,低風險時無需干預。對開發(fā)者而言,這將有助于提前化解矛盾,避免因惡劣爭吵而離開項目,創(chuàng)造更和諧的協(xié)作環(huán)境。

特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網(wǎng)易號”用戶上傳并發(fā)布,本平臺僅提供信息存儲服務。

Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.

相關推薦
熱點推薦
央企“最牛女副處長”落馬:兩年與上司開房410次,細節(jié)曝光

央企“最牛女副處長”落馬:兩年與上司開房410次,細節(jié)曝光

西門老爹
2025-12-16 15:35:31
阿曼塔耶夫一分錢沒賺到罵罵咧咧回國:趙鴻剛是懦夫,拉黑舉報我

阿曼塔耶夫一分錢沒賺到罵罵咧咧回國:趙鴻剛是懦夫,拉黑舉報我

楊華評論
2025-12-30 20:31:08
英達多次公開喊話惹爭議,網(wǎng)友:巴圖原不原諒,宋丹丹說了算

英達多次公開喊話惹爭議,網(wǎng)友:巴圖原不原諒,宋丹丹說了算

丁丁鯉史紀
2025-12-31 09:21:53
確認了,是江蘇籍女演員白鹿

確認了,是江蘇籍女演員白鹿

最江陰
2025-12-30 15:10:28
解放軍離登島只差一步,特朗普歪著腦袋回應,想一句話就鎮(zhèn)住場子

解放軍離登島只差一步,特朗普歪著腦袋回應,想一句話就鎮(zhèn)住場子

悄悄史話
2025-12-31 22:07:21
羅永浩凌晨發(fā)文稱患ADHD:如換藥失敗,或不能用鍛煉徹底改善體能問題,將不再舉辦大型活動;此前其“科技春晚”遲到40多分鐘才出現(xiàn)引熱議

羅永浩凌晨發(fā)文稱患ADHD:如換藥失敗,或不能用鍛煉徹底改善體能問題,將不再舉辦大型活動;此前其“科技春晚”遲到40多分鐘才出現(xiàn)引熱議

極目新聞
2025-12-31 07:52:11
大陸一錘定音,美武器禁入臺省,賴清德天塌了,國民黨4人現(xiàn)原形

大陸一錘定音,美武器禁入臺省,賴清德天塌了,國民黨4人現(xiàn)原形

文雅筆墨
2025-12-31 11:56:06
重慶市委市政府嚴肅問責92人,其中廳級干部22人

重慶市委市政府嚴肅問責92人,其中廳級干部22人

上觀新聞
2025-12-31 10:02:09
成都2號線真的開始拆了,看著著實有點可惜!

成都2號線真的開始拆了,看著著實有點可惜!

達文西看世界
2025-12-31 18:18:19
吉林省:60歲及以上老年人口有多少?喪葬費、撫恤金標準是多少!

吉林?。?0歲及以上老年人口有多少?喪葬費、撫恤金標準是多少!

芭比衣櫥
2025-12-31 13:31:45
中國銀行浙江省分行黨委書記、行長程軍被查

中國銀行浙江省分行黨委書記、行長程軍被查

新京報
2025-12-31 17:36:14
新華社消息|國臺辦:解放軍有關軍事行動是捍衛(wèi)國家主權和領土完整的必要、正義之舉

新華社消息|國臺辦:解放軍有關軍事行動是捍衛(wèi)國家主權和領土完整的必要、正義之舉

新華社
2025-12-29 20:11:01
蔣萬安,不簡單!

蔣萬安,不簡單!

呼呼歷史論
2025-12-31 05:52:31
傅作義親手放走5個蔣介石嫡系將領,幾十年后才知他保全的是什么

傅作義親手放走5個蔣介石嫡系將領,幾十年后才知他保全的是什么

睡前講故事
2025-12-09 13:06:03
停飛中國航班,拒絕中國游客,這個在東南亞小國”處處和中國作對

停飛中國航班,拒絕中國游客,這個在東南亞小國”處處和中國作對

南權先生
2025-12-20 17:01:37
國務院學位委員會印發(fā)管理辦法,支持少數(shù)有能力的博士生跨學科攻讀碩士學位,如何看待這一政策?

國務院學位委員會印發(fā)管理辦法,支持少數(shù)有能力的博士生跨學科攻讀碩士學位,如何看待這一政策?

卷阿
2025-12-31 07:22:12
五國被踢出發(fā)達國家,全球經(jīng)濟開始重新洗牌

五國被踢出發(fā)達國家,全球經(jīng)濟開始重新洗牌

回京歷史夢
2025-12-04 18:00:17
失控的“鴻蒙大飯店”撤檔!華為向現(xiàn)實低頭

失控的“鴻蒙大飯店”撤檔!華為向現(xiàn)實低頭

世范財經(jīng)
2025-12-31 09:13:30
利物浦戰(zhàn)利茲聯(lián)或遇傷病危機,維爾茨缺席合練成隱患

利物浦戰(zhàn)利茲聯(lián)或遇傷病危機,維爾茨缺席合練成隱患

狗狗訓練小課堂
2026-01-01 03:58:53
300八路軍被2千偽軍圍困蘆葦蕩,17歲衛(wèi)生員無意間一句話迎來轉機

300八路軍被2千偽軍圍困蘆葦蕩,17歲衛(wèi)生員無意間一句話迎來轉機

卡西莫多的故事
2025-12-22 09:50:12
2026-01-01 05:28:49
至頂AI實驗室 incentive-icons
至頂AI實驗室
一個專注于探索生成式AI前沿技術及其應用的實驗室。
895文章數(shù) 151關注度
往期回顧 全部

科技要聞

老羅,演砸了,也封神了?

頭條要聞

日企代表團推遲原定訪華行程 外交部回應

頭條要聞

日企代表團推遲原定訪華行程 外交部回應

體育要聞

羅馬諾:國米和巴薩再次就轉會聯(lián)系了坎塞洛的團隊

娛樂要聞

官宣才兩天就翻車?七七被連環(huán)爆料

財經(jīng)要聞

高培勇:分配制度改革是提振消費的抓手

汽車要聞

凱迪拉克純電中型SUV 售價不足24萬/33寸曲面屏

態(tài)度原創(chuàng)

數(shù)碼
家居
旅游
公開課
軍事航空

數(shù)碼要聞

三星將在CES 2026發(fā)布廚房家電陣容,首次將谷歌Gemini塞進冰箱

家居要聞

無形有行 自然與靈感詩意

旅游要聞

香港舉行“新希望、新開始”跨年倒數(shù)活動

公開課

李玫瑾:為什么性格比能力更重要?

軍事要聞

沉浸式感受"正義使命-2025"演習現(xiàn)場

無障礙瀏覽 進入關懷版