国产av一二三区|日本不卡动作网站|黄色天天久久影片|99草成人免费在线视频|AV三级片成人电影在线|成年人aV不卡免费播放|日韩无码成人一级片视频|人人看人人玩开心色AV|人妻系列在线观看|亚洲av无码一区二区三区在线播放

網(wǎng)易首頁 > 網(wǎng)易號 > 正文 申請入駐

谷歌版兩門「小鋼炮」開源!2.7億參數(shù)干翻SOTA

0
分享至


新智元報道

編輯:定慧

【新智元導(dǎo)讀】谷歌這波像開了「大小號雙修」:前腳用Gemini把大模型戰(zhàn)場攪翻,后腳甩出兩位端側(cè)「師兄弟」:一個走復(fù)古硬核架構(gòu)回歸,一個專職教AI「別光會聊,趕緊去干活」。手機(jī)里的智能體中樞,要開始卷起來了。

谷歌是真的底蘊(yùn)深厚啊~

剛剛在「大模型」領(lǐng)域用Gemini 3 Pro?Flash重挫了OpenAI銳氣后,馬不停蹄繼續(xù)在端側(cè)「小模型」發(fā)力!

昨天夜里,一口氣又放出新的兩個技術(shù)博客,全是和端側(cè)相關(guān)的。

一個是T5Gemma 2,一個專門的底層架構(gòu)創(chuàng)新,首個多模態(tài)長上下文碼器-解碼器模型開源,最小是270M–270M。

另一個是FunctionGemma,專為函數(shù)調(diào)用優(yōu)化的270M2.7億參數(shù)模型,可在手機(jī)、瀏覽器及其他設(shè)備上運(yùn)行。



左右滑動查看

T5Gemma 2FunctionGemma都來自Gemma 3家族,相對于Gemini這種「大模型」,Gemma就是「小模型」。

這兩個雖然都是小模型,但是他們的關(guān)系有點(diǎn)類似同門師兄弟,但專攻方向不同。

T5Gemma 2專注于架構(gòu)效率與多模態(tài)(Encoder-Decoder架構(gòu)回歸)。

而FunctionGemma專注于智能體與工具使用(Function Calling能力)。

T5Gemma 2和現(xiàn)在流行的LLM的架構(gòu)不同,可以理解為AI技術(shù)領(lǐng)域「另一條路」。


論文地址:https://arxiv.org/pdf/2512.14856

谷歌開源了T5Gemma 2:270M–270M、1B–1B以及4B–4B三種規(guī)模的預(yù)訓(xùn)練模型。


開源地址:https://huggingface.co/collections/google/t5gemma-2

FunctionGemma則是技能變體,它是對模型「技能」的專項訓(xùn)練。

有點(diǎn)類似把一個大模型里所有知識類的能力都剝離掉,只保留針對性的函數(shù)調(diào)用功能。


開源地址:https://blog.google/technology/developers/functiongemma/

T5Gemma系列深層技術(shù)解析

先看下T5Gemma 2這種「新結(jié)構(gòu)」的優(yōu)勢:

  • 強(qiáng)大的多模態(tài)性能:在多個基準(zhǔn)測試中超越谷歌自己的Gemma 3。

  • 全面提升的通用能力:在代碼、推理和多語言 等任務(wù)上,T5Gemma 2整體上優(yōu)于對應(yīng)規(guī)模的Gemma 3模型。

  • 卓越的長上下文能力:相較于Gemma 3和第一代T5Gemma,在生成質(zhì)量上取得了顯著提升。


與T5Gemma類似,T5Gemma 2在預(yù)訓(xùn)練階段的性能或超過Gemma 3對應(yīng)體量模型,而在后訓(xùn)練階段則取得了顯著更優(yōu)的表現(xiàn)。



左右滑動查看


想要理解為什么谷歌要搞T5Gemma,就需要看看目前大模型技術(shù)路線演變的核心脈絡(luò)。

T5Gemma算得上是大模型領(lǐng)域的「古典主義復(fù)興」。

在當(dāng)今GPT、Llama等Decoder-only(僅解碼器)架構(gòu)占主導(dǎo)的時代,T5Gemma 2是對經(jīng)典Transformer架構(gòu)中Encoder-Decoder(編碼器-解碼器)路線的回歸與現(xiàn)代化改造。

我們現(xiàn)在熟知的GPT、Gemini、DeepSeek都是Decoder-only(僅解碼器)架構(gòu)。

  • GPT系列OpenAI從GPT-1到現(xiàn)在的GPT-4o,全是Decoder-only。

  • DeepSeek:無論是DeepSeek-V2還是最新的V3,核心都是Decoder-only(結(jié)合了MoE混合專家技術(shù))。

  • LlamaMeta它是目前開源界Decoder-only的標(biāo)桿。

  • Gemini谷歌:主線模型(Pro/Flash)主要是Decoder-only。

目前叫得上名字的、用來「聊天」的超級模型,幾乎清一色全是Decoder-only。

為什么說T5Gemma 2是「回歸」?

這就要說到Transformer的分家史。

要理解「回歸」,得先看它們當(dāng)初是怎么「分家」的。

2017年谷歌發(fā)布《Attention Is All You Need》論文提出Transformer時,祖師爺原本是Encoder-Decoder(編碼器-解碼器)全套架構(gòu)

但后來,家族分成了三個流派:

流派A:Encoder-only(只用編碼器)

代表人物:BERT

特長:只能「讀」,不能「寫」。它極其擅長做選擇題、分類、情感分析,但你讓它寫作文,它憋不出來。

流派B:Decoder-only(只用解碼器)

代表人物:GPT。

特長:只能「猜下一個字」。雖然它看上文不如Encoder那么全面(只能看左邊,不能看右邊),但它天生會說話,而且人們發(fā)現(xiàn)只要把這玩意兒做得足夠大,它居然產(chǎn)生了智能(涌現(xiàn))。

也就是「意外的」開啟了我們這個AI時代(笑。

流派C:Encoder-Decoder(全套保留)

代表人物:T5谷歌,BART

特長:既能讀又能寫。也就是現(xiàn)在的T5Gemma 2所在的流派。

T5的全稱是Text-to-Text Transfer Transformer,連著5個T,所以叫T5。

那為什么Decoder-only(GPT流派)后來一統(tǒng)天下了?


  1. 訓(xùn)練簡單粗暴:

    只需要把網(wǎng)上的海量文字扔進(jìn)去,讓它不停預(yù)測下一個字就行(自監(jiān)督學(xué)習(xí))。

  2. 上限極高:

    也就是Scaling Law(縮放定律)。人們發(fā)現(xiàn)Decoder-only模型越做越大,智商提升得最明顯,而且工程上更容易堆算力。

  3. Encoder-Decoder被冷落:

    因為它結(jié)構(gòu)復(fù)雜(有兩套參數(shù)),訓(xùn)練起來比Decoder-only稍微麻煩點(diǎn),且在做超大模型(千億參數(shù))時,性價比似乎不如純Decoder那么極致。


所以也只有財大氣粗的谷歌能有精力回歸這個經(jīng)典模型,繼續(xù)投入搞研發(fā)。

谷歌在全世界都瘋狂卷Decoder-only的時候,突然殺了個回馬槍。


既然Decoder-only這么強(qiáng),為什么要改回Encoder-Decoder?

因為谷歌發(fā)現(xiàn)了Decoder-only的幾個死穴,而這些死穴正好是Encoder-Decoder的強(qiáng)項:

「幻覺」問題(瞎編):

Decoder-onlyGPT

是邊寫邊想,有時候?qū)戉肆司褪詹蛔?,容易一本正?jīng)胡說八道。

Encoder-DecoderT5

是「先讀懂(Encoder)-再動筆(Decoder)」。

Encoder會強(qiáng)迫模型先把你的輸入徹底消化一遍,生成一個完整的「中心思想向量」,然后再讓Decoder翻譯出來。

這種機(jī)制天生更嚴(yán)謹(jǐn),幻覺更少。

在多模態(tài)方面的天然優(yōu)勢:

你要讓模型看圖,Encoder(編碼器)是最好的「眼睛」。

T5Gemma 2可以直接把圖像信號喂給Encoder,這比強(qiáng)行塞給Decoder-only處理要順暢得多。

端側(cè)效率(手機(jī)上跑):

在手機(jī)這種算力有限的地方,如果你只是做翻譯、摘要、指令執(zhí)行,Encoder-Decoder往往能用更少的參數(shù)(更小的顯存)達(dá)到和巨大Decoder-only模型一樣的效果。

T5Gemma 2的出現(xiàn),不是要推翻GPT,而是在特定領(lǐng)域(比如手機(jī)端、翻譯、工具調(diào)用、嚴(yán)謹(jǐn)推理)復(fù)興了Encoder-Decoder架構(gòu)。


谷歌并未從零開始訓(xùn)練T5Gemma,而是采用了一種被稱為「模型適配」(Model Adaptation)的高效技術(shù)。

該技術(shù)的核心在于利用已經(jīng)過數(shù)萬億標(biāo)記訓(xùn)練的Gemma 2或Gemma 3解碼器模型作為種子,將其權(quán)重映射到新的編碼器-解碼器結(jié)構(gòu)中。

這種做法極大地降低了計算成本,同時讓模型能夠繼承原有的語言理解能力。

FunctionGemma:智能體的專用大腦

如果T5Gemma是從底層架構(gòu)的創(chuàng)新,那么FunctionGemma就是從功能實現(xiàn)上的創(chuàng)新。

FunctionGemma是為了解決大模型落地中最痛的點(diǎn)——「不僅要能聊,還要能干活」而設(shè)計的。


FunctionCalling函數(shù)調(diào)用:普通模型在被要求「定個鬧鐘」或「查天氣」時,往往只能瞎編。FunctionGemma經(jīng)過專門的微調(diào),能夠精準(zhǔn)地輸出結(jié)構(gòu)化的數(shù)據(jù)(如JSON),去調(diào)用外部的API或工具。

Agent智能體優(yōu)化:它是為AIAgent設(shè)計的,擅長多步驟推理和執(zhí)行任務(wù)。

極致輕量化:這意味它可以直接跑在手機(jī)、甚至更低功耗的邊緣設(shè)備上,作為系統(tǒng)的「控制中樞」。

適用場景:手機(jī)語音助手、家庭自動化控制、端側(cè)AI Agent、API調(diào)度中心。


FunctionGemma并非僅僅是Gemma家族的一個「縮小版」,而是一個專門設(shè)計的「神經(jīng)路由器」,旨在解決云端大模型在延遲、隱私和成本上的固有缺陷。

從對話到行動的范式躍遷

在過去的一年中,大語言模型(LLM)的發(fā)展主要集中在提升模型的對話能力、知識廣度以及多模態(tài)理解力上。

然而,隨著應(yīng)用場景的深入,開發(fā)者社區(qū)最迫切的需求已從「能聊天的AI」轉(zhuǎn)向「能干活的AI」。

這種從「對話式接口」向「主動體」的轉(zhuǎn)變,要求模型不僅要理解自然語言,還要能精準(zhǔn)地操作軟件接口、執(zhí)行多步工作流并與物理世界交互。

FunctionGemma的推出正是為了響應(yīng)這一需求。


作為Gemma 3家族中最小的成員,它拋棄了通用知識的廣度,換取了對函數(shù)調(diào)用(Function Calling)這一特定任務(wù)的極致優(yōu)化。

這種「特種兵」式的模型設(shè)計思路,代表了AI工程化的一個新方向:即通過模型的小型化和專業(yè)化,將智能下沉至網(wǎng)絡(luò)的邊緣——用戶的手機(jī)、IoT設(shè)備乃至瀏覽器中。

FunctionGemma之所以能在極小的參數(shù)規(guī)模下實現(xiàn)高性能的函數(shù)調(diào)用,依賴于其獨(dú)特的架構(gòu)設(shè)計和訓(xùn)練策略。

它不是通過簡單的壓縮得到的,而是基于Gemma 3架構(gòu)進(jìn)行了針對性的「壓縮」,專注于句法結(jié)構(gòu)的精確性和邏輯判斷的確定性。

FunctionGemma擁有2.7億(270M)參數(shù)。

在當(dāng)今動輒數(shù)千億參數(shù)的模型時代,這一數(shù)字顯得微不足道,連「大模型」零頭都不到,但其設(shè)計哲學(xué)卻極具顛覆性。

通常模型的推理能力隨著參數(shù)量的增加而涌現(xiàn)(Scaling Laws)。

然而,F(xiàn)unctionGemma打破了這一常規(guī),證明了在特定領(lǐng)域(Domain-Specific),小模型可以通過高質(zhì)量數(shù)據(jù)的微調(diào)達(dá)到甚至超越大模型的表現(xiàn)。

雖然官方未披露具體的蒸餾細(xì)節(jié),但270M的規(guī)模暗示了大量的通用世界知識被剔除。

模型不再需要知道「法國的首都是哪里」或「莎士比亞的生平」,它只需要知道如何解析JSON、如何匹配函數(shù)簽名以及如何處理參數(shù)類型。

發(fā)力移動端

「在手機(jī)上能運(yùn)行嗎?」這是用戶最關(guān)心的問題。

答案不僅是肯定的,而且FunctionGemma正是為此而生。

在移動設(shè)備上,隨機(jī)存取存儲器(RAM)是最寶貴的資源。

Android系統(tǒng)的低內(nèi)存查殺機(jī)制會毫不留情地關(guān)閉占用內(nèi)存過大的后臺進(jìn)程。

FunctionGemma 270M在FP16精度下的權(quán)重大小約為540MB。

對于擁有8GB或12GB內(nèi)存、甚至24GB的現(xiàn)代Android旗艦機(jī),這僅占總內(nèi)存的5%-7%,完全可以在后臺常駐。

Int8/Int4(量化):為了進(jìn)一步降低功耗和內(nèi)存占用,端側(cè)部署通常使用量化技術(shù)。

Int8量化:模型大小降至約270MB。

Int4量化:模型大小降至約135MB。

這意味著它可以在入門級設(shè)備甚至嵌入式設(shè)備上流暢運(yùn)行。

谷歌為何要發(fā)布這樣一個「小」模型?

這背后隱藏著其對未來AI計算架構(gòu)的深刻思考,以及在移動操作系統(tǒng)控制權(quán)爭奪戰(zhàn)中的防御性布局。

這是FunctionGemma最核心的戰(zhàn)略價值。

在當(dāng)前的AI應(yīng)用中,將所有請求都發(fā)送到云端大模型既昂貴又緩慢。

移動互聯(lián)網(wǎng)的下一個階段

移動互聯(lián)網(wǎng)的下一個階段是意圖驅(qū)動(Intent-Driven)的。

意圖驅(qū)動(Intent-Driven),用戶不再通過點(diǎn)擊圖標(biāo)打開APP,而是直接表達(dá)意圖。

現(xiàn)狀:Siri和谷歌Assistant,以及類似手機(jī)助手長期以來受限于硬編碼的指令集,只能通過特定接口調(diào)用APP的有限功能。

FunctionGemma通過讓模型直接學(xué)習(xí)APP的API定義,F(xiàn)unctionGemma試圖讓AI成為通用的UI。

開發(fā)者只需要暴露工具(Tools),F(xiàn)unctionGemma就能理解并操作這些工具。

谷歌的野心是通過開源FunctionGemma,谷歌實際上是在制定一套AIAPP交互的標(biāo)準(zhǔn)協(xié)議。

如果所有Android開發(fā)者都按照FunctionGemma的格式定義工具,那么谷歌的Android系統(tǒng)將成為世界上最強(qiáng)大的智能體平臺,進(jìn)一步加深其護(hù)城河。

為了驗證FunctionGemma的能力,谷歌提供了兩個典型的參考實現(xiàn),展示了其在游戲和系統(tǒng)控制領(lǐng)域的潛力。

場景描述:用戶用自然語言發(fā)出指令,模型將其轉(zhuǎn)換為Android系統(tǒng)意圖。

技術(shù)細(xì)節(jié)

  • 多參數(shù)提取:用戶說「給John發(fā)郵件說我遲到了」,模型提取recipient="John",body="我遲到了",action="send_email"。

  • 歧義處理:如果用戶只說「發(fā)郵件」,模型可能會調(diào)用ask_clarification函數(shù),反問用戶「發(fā)給誰?」。這種多輪對話能力是硬編碼助手無法比擬的。

性能對比:經(jīng)微調(diào)的FunctionGemma在此任務(wù)上的準(zhǔn)確率達(dá)到85%,遠(yuǎn)超未微調(diào)的基座模型(58%)。這證明了在端側(cè)垂直領(lǐng)域,小模型完全可以替代大模型。


「Tiny Garden」這個Demo展示了FunctionGemma如何驅(qū)動游戲邏輯。

場景:一個語音控制的種田游戲。用戶說「在頂排種滿向日葵,然后給它們澆水」。

任務(wù)分解(TaskDecomposition):模型不僅要識別意圖,還要進(jìn)行邏輯推理。它需要將這一句話拆解為一系列函數(shù)調(diào)用:


  1. select_crop(type="sunflower")

  2. plant(row=0,col=0)...plant(row=0,col=N)

  3. water(row=0)


完全離線:整個過程無需聯(lián)網(wǎng),這對于手游體驗至關(guān)重要,因為網(wǎng)絡(luò)延遲會導(dǎo)致游戲操作的不流暢。


對于開發(fā)者而言,F(xiàn)unctionGemma提供了一種低成本、高隱私的方案,將Agent能力集成到普通APP中,無需昂貴的服務(wù)器開銷。它使得「語音控制一切」不再是巨頭的專利,而是每個APP都能擁有的標(biāo)準(zhǔn)功能。

對于手機(jī)廠商而言,270M的參數(shù)量是完美的「甜點(diǎn)」——它既能利用現(xiàn)有的NPU硬件,又不會過度擠占系統(tǒng)資源,為打造「AI原生OS」提供了理想的地基。

對于谷歌而言,這是其在AI時代捍衛(wèi)Android生態(tài)控制權(quán)的關(guān)鍵一步。

未來,可以預(yù)見,基于FunctionGemma的變體將無處不在:在你的智能手表里處理健康數(shù)據(jù),在你的路由器里優(yōu)化網(wǎng)絡(luò)設(shè)置,甚至在你的汽車?yán)镎{(diào)節(jié)空調(diào)溫度。

AI將不再是一個需要「訪問」的網(wǎng)站,而是一種像電力一樣,無形卻無處不在的基礎(chǔ)設(shè)施。

參考資料:

https://blog.google/technology/developers/functiongemma/

https://blog.google/technology/developers/t5gemma-2/

秒追ASI

?點(diǎn)贊、轉(zhuǎn)發(fā)、在看一鍵三連?

點(diǎn)亮星標(biāo),鎖定新智元極速推送!

特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺“網(wǎng)易號”用戶上傳并發(fā)布,本平臺僅提供信息存儲服務(wù)。

Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.

相關(guān)推薦
熱點(diǎn)推薦
黃循財:絕不讓中國從新加坡多拿一片芯片!

黃循財:絕不讓中國從新加坡多拿一片芯片!

羽逸地之光
2025-12-26 08:04:26
白銀還能更瘋狂?庫存耗盡、金銀比坍塌,資深分析師喊出300美元天價

白銀還能更瘋狂?庫存耗盡、金銀比坍塌,資深分析師喊出300美元天價

華爾街見聞官方
2025-12-26 21:26:53
年紀(jì)大了減肥是硬傷!看54歲的陳松伶減27斤的樣子就知道了

年紀(jì)大了減肥是硬傷!看54歲的陳松伶減27斤的樣子就知道了

木子愛娛樂大號
2025-12-23 20:34:34
馬斯克再放神預(yù)言,中日關(guān)系緊張之際,直接為日本未來定調(diào)

馬斯克再放神預(yù)言,中日關(guān)系緊張之際,直接為日本未來定調(diào)

趣味萌寵的日常
2025-12-26 07:57:26
沙特空襲,俄羅斯等多國發(fā)聲

沙特空襲,俄羅斯等多國發(fā)聲

上觀新聞
2025-12-26 22:25:04
又一豪車巨頭要倒?暴跌99%單季虧損80億,中國市場200家全部關(guān)停

又一豪車巨頭要倒?暴跌99%單季虧損80億,中國市場200家全部關(guān)停

芳芳?xì)v史燴
2025-12-25 16:49:16
“查完醫(yī)保賬戶才發(fā)現(xiàn)被連續(xù)扣了四年錢”,惠民保“自動扣費(fèi)”引爭議,但真相竟是??

“查完醫(yī)保賬戶才發(fā)現(xiàn)被連續(xù)扣了四年錢”,惠民保“自動扣費(fèi)”引爭議,但真相竟是??

每日經(jīng)濟(jì)新聞
2025-12-26 21:08:22
供應(yīng)鏈鎖死!皮革制品遭關(guān)稅“精準(zhǔn)阻擊” 明年美國漲價沖擊將更明顯?

供應(yīng)鏈鎖死!皮革制品遭關(guān)稅“精準(zhǔn)阻擊” 明年美國漲價沖擊將更明顯?

財聯(lián)社
2025-12-26 10:53:09
2010年,林彪飛機(jī)黑匣子的錄音被曝光,上面記錄了林立果的兩段話

2010年,林彪飛機(jī)黑匣子的錄音被曝光,上面記錄了林立果的兩段話

第四思維
2025-03-01 18:41:51
陜西黑老大鄭衛(wèi)國去酒店吃飯,不料踢到鐵板,死前連中9槍寧死不跪

陜西黑老大鄭衛(wèi)國去酒店吃飯,不料踢到鐵板,死前連中9槍寧死不跪

青青會講故事
2024-11-01 16:45:36
美媒報道:2008年跳樓自殺的頂級模特魯斯拉娜,的確是蘿莉島女孩

美媒報道:2008年跳樓自殺的頂級模特魯斯拉娜,的確是蘿莉島女孩

老范談史
2025-12-24 17:24:57
上海人狂喜!上海母親河即將有新變化,這些區(qū)域身價要暴漲!

上海人狂喜!上海母親河即將有新變化,這些區(qū)域身價要暴漲!

行走的知識庫
2025-12-26 11:17:37
羅素:愚蠢的四大特征

羅素:愚蠢的四大特征

尚曦讀史
2025-12-19 09:55:05
余華:人到中年崩潰的真相,不是貧窮,而是你從未為自己活過

余華:人到中年崩潰的真相,不是貧窮,而是你從未為自己活過

杏花煙雨江南的碧園
2025-12-02 14:15:02
十萬人打出9.1!年度神劇出現(xiàn)了!

十萬人打出9.1!年度神劇出現(xiàn)了!

電影分享會
2025-12-26 11:09:15
深陷爭議!46歲朱孝天竟是太極拳世界冠軍 曾在西班牙美國連奪3冠

深陷爭議!46歲朱孝天竟是太極拳世界冠軍 曾在西班牙美國連奪3冠

念洲
2025-12-26 11:28:03
曠世奇案,只此一件

曠世奇案,只此一件

我是歷史其實挺有趣
2025-12-24 10:42:04
上海營業(yè)排名最高的六大商場,不求最好但求最貴,上檔次有面子

上海營業(yè)排名最高的六大商場,不求最好但求最貴,上檔次有面子

小蜜情感說
2025-12-26 00:43:20
廣州市委常委、常務(wù)副市長、黃埔區(qū)委書記陳杰任江門市委書記

廣州市委常委、常務(wù)副市長、黃埔區(qū)委書記陳杰任江門市委書記

澎湃新聞
2025-12-26 11:38:27
2026年房價,已經(jīng)有3大信號!行內(nèi)人士:買賣房,請?zhí)崆白龊脺?zhǔn)備

2026年房價,已經(jīng)有3大信號!行內(nèi)人士:買賣房,請?zhí)崆白龊脺?zhǔn)備

巢客HOME
2025-12-26 04:15:03
2025-12-27 05:51:00
新智元 incentive-icons
新智元
AI產(chǎn)業(yè)主平臺領(lǐng)航智能+時代
14189文章數(shù) 66399關(guān)注度
往期回顧 全部

科技要聞

收割3000億!拼多多"土辦法"熬死所有巨頭

頭條要聞

老人婚宴上被提醒孫女非親生 做鑒定后忍3年忍不了了

頭條要聞

老人婚宴上被提醒孫女非親生 做鑒定后忍3年忍不了了

體育要聞

開翻航母之后,他決定親手造一艘航母

娛樂要聞

王傳君生病后近照變化大,面部浮腫

財經(jīng)要聞

投資巨鱷羅杰斯最新持倉:只留四種資產(chǎn)

汽車要聞

兩大CEO試駕 華為乾崑*啟境開啟首款獵裝轎跑路測

態(tài)度原創(chuàng)

藝術(shù)
本地
時尚
公開課
軍事航空

藝術(shù)要聞

閆平 2025油畫作品欣賞

本地新聞

云游安徽|踏訪池州,讀懂山水間的萬年史書

我們?yōu)槭裁葱枰?jié)日穿搭?

公開課

李玫瑾:為什么性格比能力更重要?

軍事要聞

烏最新20點(diǎn)俄烏和平草案遞交莫斯科 俄方拒絕

無障礙瀏覽 進(jìn)入關(guān)懷版