国产av一二三区|日本不卡动作网站|黄色天天久久影片|99草成人免费在线视频|AV三级片成人电影在线|成年人aV不卡免费播放|日韩无码成人一级片视频|人人看人人玩开心色AV|人妻系列在线观看|亚洲av无码一区二区三区在线播放

網(wǎng)易首頁 > 網(wǎng)易號 > 正文 申請入駐

10分鐘搞懂AI名詞:這次,終于能看懂AI新聞了丨圖文

0
分享至

最近這兩年,我們每天早上都被各種AI新聞“引爆!”,看各家 “突發(fā)!”“AI 神器”和“神秘項目”……

只見它們紛紛“火力全開!”“刷爆記錄!”,“迅猛爆發(fā)!”,讓我們天天“狂喜!”,然后一邊“見證歷史!”

一邊點開新聞,心里暗暗思量:字我都認識,但你們到底在說什么啊?

各家博主的文章里都堆滿了不明覺厲的專業(yè)名詞,讓我們自慚形穢,一臉懵逼,只好鬼鬼祟祟地掏出AI,問問這些名詞到底是啥?

但由于缺乏配套的知識體系,往往問了也似懂非懂,下次看到又不知道在說什么了~

如果你也有類似感受,又想在這些一驚一乍的新聞里學點正經(jīng)知識,那在這期視頻里,我們會跟你一起在頭腦中建立這樣一個關(guān)于大模型的基本框架:它包含大模型工作時的運作流程,以及大模型訓練時預訓練,后訓練,強化學習的基本流程

在講述這個框架的同時,我們會介紹每個環(huán)節(jié)中涉及到的常見概念。這樣在看完之后,不光能搞清這些名詞的含義,還能知道一些關(guān)于大模型的基礎知識,比如一些不正經(jīng)的大模型,到底是怎么練出來的?AI 究竟是復讀機,還是有靈魂等等~

視頻

↓↓ 看完這個視頻就懂了 ↓↓

↑↑ 信我,真的能看懂 ↑↑

圖文版

你手機上的 Deepseek、豆包、ChatGPT、Gemini......本質(zhì)上都是“大語言模型”,LLM。我們會把它們當成一個個大腦,跟它對話。

當你找它聊天時,你的話就是Prompt,提示詞。它們會被“分詞器”,切分成這樣的一個個Token(詞元)。

Token 是大模型理解內(nèi)容的最小單元。每個 Token 都對應著一個數(shù)字,叫Token ID。

大模型的任務,就是算出在這串 token 序列后,應當續(xù)寫哪些 token。

為了完成這個任務,大模型們普遍采用了Transformer架構(gòu),它采用了“自注意力機制”,能很好地捕捉上下文之間的關(guān)聯(lián)。

在計算的時候,大模型會一個 token 一個 token 地算。每次計算,它都會把新生成的 token,加入到原有的 token 序列,再投入進模型中,算出下一個 token。再把它加入 token 串,再投入大模型,再算出下一個 token.....如此循環(huán)往復,大模型就會輸出一個長長長長的回答——所以說大模型計算的本質(zhì),就是在不斷地“續(xù)寫”token 串

在使用大模型的時候,你可能會開“聯(lián)網(wǎng)搜索”,也有一些教程會教你外掛一個私人知識庫。這其實都是在利用 RAG 功能,“檢索增強生成”:也就是先把從互聯(lián)網(wǎng),或者知識庫里抓取到的內(nèi)容,加入到 token 串里,再開始計算、續(xù)寫。這樣可以提高輸出的準確度。

這一串過程,就是大模型在工作時的基礎流程。

我們說大模型是在“計算”結(jié)果,是因為它的內(nèi)部真的要調(diào)動許多許多復雜的數(shù)學表達式,這里面就有很多可以調(diào)整的“參數(shù)”。

很多人都認為,模型參數(shù)越多,規(guī)模越大,算力越高,表現(xiàn)就越好——洋氣的說法叫 Scaling Law,樸實的說法叫“大力出奇跡”~

很多大模型的名稱后都會直接標注參數(shù)大小,這里 B 代表 Billion,十億。

GPT3 剛發(fā)布的時候,大家都震驚它居然有高達 1750 億個參數(shù);

現(xiàn)在滿血版的 Deepseek R1 ,已經(jīng)有 6710 億的參數(shù);一些廠商都開始卷萬億參數(shù)的大模型了。

你可以想象,如果你跟它說句 Hello,都要調(diào)動如此之多的參數(shù),那未免內(nèi)心戲太豐富了。不過很多模型都是這么干的,它們叫“稠密模型”(Dense Model),每次都愛的轟轟烈烈,全情投入,計算量大。

但當你問 Deepseek 一個問題時,它并不會調(diào)動所有的參數(shù),而是只激活其中跟問題相關(guān)的一部分參數(shù)。這叫做“稀疏模型”,比較冷靜,能降低計算量,提升速度。

目前稀疏模型中最流行的一種叫MoE ,“混合專家模型”。馬斯克的 Grok,還有 Deepseek 等,都是 MoE 模型。它們通過“門控網(wǎng)絡”(gating network),給每個問題分配合適的“專家”,賦予它們不同的權(quán)重,再生成結(jié)果。

但不管怎么說,每一個大模型里的參數(shù)量,都遠遠、遠遠、遠遠地超出了手動設定的范圍。怎么才能把它們調(diào)整得恰到好處,做出一顆能說會道的大腦呢?

從這里開始,我們就要進入這個框架的縱軸:也就是如何通過預訓練、后訓練,最終制作出一個大模型了。放心,你一定能看懂——畢竟我也水平有限,能講給你聽的一定是大家都能理解的。

大模型的制造的第一步,是利用海量的互聯(lián)網(wǎng)數(shù)據(jù),做Pre-training,“預訓練”。

這是為了讓大模型掌握人類世界的各種知識和語言規(guī)律,打造出一個“基座模型”。

過程很簡單:就是讓它爬遍互聯(lián)網(wǎng),把各位夙興夜寐辛苦創(chuàng)作的,飽含人類智慧的知識精華作為數(shù)據(jù)集,認真學習~

并通過一種叫“反向傳播”的方法,讓大模型自己調(diào)整參數(shù)。這是什么意思呢?

你看,當我們把這串 token 輸入到模型時,模型里會經(jīng)過一頓計算,輸出一個結(jié)果,這叫“前向傳播”。

但初始的預測結(jié)果往往不盡人意:

我們訓練的目標是讓大模型輸出“棗樹”,那就要把錯誤回答跟目標對比,看看差了多少。這一步就是計算“損失”(loss)。

通過計算損失,模型可以反向找到在整個傳播過程中,到底是哪些步驟出了問題,然后調(diào)整它們對應的參數(shù)。如此循環(huán)往復,逐步調(diào)整,直到輸出結(jié)果逼近目標。

這就是“反向傳播”。

由于在預訓練的時候,大模型要學習的內(nèi)容太多,數(shù)據(jù)集很大,靠人力梳理根本干不過來。所以目前預訓練主要都用“自監(jiān)督學習”——就是人類躺平了,讓大模型自己去看數(shù)據(jù)、計算損失、調(diào)整參數(shù),自己調(diào)教自己。

預訓練是大模型訓練中最耗時、耗算力的階段,往往需要幾個月甚至幾年,買天量的顯卡,所以讓黃仁勛成為了 AI 的最大贏家。

預訓練完成后,我們就能得到一個Base Model,“基座模型”。你可以把它理解為一個“互聯(lián)網(wǎng)模擬器”,或者一個學會了人類世界知識的“通用大腦”。無論你輸入什么,它都能續(xù)出合適的 Token。

不過,基座模型一般不能直接用。

為了把它從“通用大腦”變成一個有特定功能的“打工人”,我們還需要給它做Post training,“后訓練”。

你可能聽說過所謂的fine tuning,“微調(diào)”,它就是后訓練時完成的。目前最常用的是方法“監(jiān)督微調(diào)”(SFT,Supervised Fine-Tuning)——所謂的“監(jiān)督”,就是說要給 AI 提供帶標注的數(shù)據(jù)集,讓它模仿標注數(shù)據(jù)的風格來生成內(nèi)容

比方說要把它做成我們最常用的各類“對話助手”,那就要給基座模型提供對話數(shù)據(jù)集。

聽起來又是一項大工程,但此時所需要的數(shù)據(jù)集大小和訓練時長,其實遠遠小于預訓練階段。比如開源對話數(shù)據(jù)集 OpenAssistant 里,一共包含 16 萬條出頭的對話信息,中文對話數(shù)據(jù)只有不到 5000 條,但已經(jīng)足夠把基座模型變成一個合格的對話助手了。

如果我們細看一下這個對話數(shù)據(jù)集,就會發(fā)現(xiàn)其中的對話講文明,懂禮貌,絕對不是你在如今互聯(lián)網(wǎng)評論區(qū)能看到的東西。也就是說監(jiān)督微調(diào)用的這些帶標注的數(shù)據(jù),都需要真人編寫,或者真人利用借助 AI 來編寫。

所以監(jiān)督微調(diào)時,需要用到很多真人,作為“數(shù)據(jù)標注員”——這也算是 AI 給我們活人提供了一些工作機會了~

比如 OpenAI 曾在這篇論文里提到,他們在 instruct-GPT 項目中招聘了 40 名數(shù)據(jù)標注員。

你也能在招聘網(wǎng)站上找到很多“數(shù)據(jù)標注員”的崗位——雖然其中很多是枯燥的重復勞動,但它的好處一是門檻相對不高;二是等 AI 占領(lǐng)世界奴役人類后,說不定可以憑這份工作經(jīng)歷,向硅基生物投誠,當碳奸......

不管你是想把 AI 打造成對話助手,還是醫(yī)學專家、法律專家等等,都要在微調(diào)時給他們喂相應的數(shù)據(jù)

當然,不是所有人的需求都這么實用,高雅。在 HuggingFace 等大模型社區(qū)上,你時常能找到有人拿一個基座大模型,給它喂不堪入目的數(shù)據(jù)做微調(diào),打造出上不了臺面的專家、女友。

比如幾個月前,就有一個全站下載第一的模型,叫 deepsex (這段劃掉)……

在完成監(jiān)督微調(diào)后,我們就可以得到一個基本可用的大模型了。但如果到此為止的話,大模型也不過是一個沒有靈魂,只會四處搬運,鸚鵡學舌的復讀機罷了——就跟我們這些科普博主一樣~

如果要給大模型注入靈魂,那就要進入“后訓練”中最重要的一步:強化學習,RL,Reinforcement Learning。通過強化學習,大模型輸出的答案會更符合人類偏好,甚至展現(xiàn)出超越人類的“智力”。

“強化學習”的具體方法很多,其中一些思路既簡單,又巧妙。我們可以用 Deepseek 的GRPO(Generalized Rejection Sampling Policy Optimization)方案來感受一下:

首先,我們可以給定一個問題,讓 AI 生成幾十個不同的解決方案,并給出答案。這些答案有對有錯,其中答錯的方案直接扔掉,拒絕采樣;答對的那些解決方案,大概率更合理。

于是我們可以把它們再喂給 AI,讓它們模仿這些方案,繼續(xù)生成解決思路和答案。然后再根據(jù)答案對錯,繼續(xù)篩選解決思路,再喂給 AI.....這樣反復訓練,就能提高 AI 輸出正確答案的能力。甚至偶爾能涌現(xiàn)出一些在人工數(shù)據(jù)集之外,連人類自己都未曾設想過的解決方案,達成一種“超越人類”的效果。

是不是非常巧妙?但它也不是萬能的:比如一個問題沒有標準清晰的答案,比如寫文章、寫詩,那大模型怎么知道哪個答案更好呢?

那這時候,又得用到數(shù)據(jù)標注員了~

在強化學習中,數(shù)據(jù)標注員的任務,是給 AI 生成的答案,按他們的判斷排序,把好的排在前面,差的排在后面。

當然,數(shù)據(jù)標注員無法給無窮無盡的回答排序。所以我們還要根據(jù)他們的排序偏好,訓練出一個“獎勵模型”,RM。來給AI 打分。然后把 AI 生成的答案,交給獎勵模型。這樣就可以讓大模型根據(jù)獎勵模型的反饋,不斷地訓練自己了。這種方式,叫做RLHF(Reinforcement Learning with Human Feedback),基于人工反饋的強化學習。

從監(jiān)督微調(diào)時的數(shù)據(jù)集編寫,到 RLHF 中給答案排序,都需要數(shù)據(jù)員的參與。所以從某種角度來說,一個大模型的“個性”,能反應它背后的人類標注員們的偏好——所以你談的那些 AI 女友,背后可能是跟你有共同愛好的的大漢~

總而言之,目前后訓練中的“強化學習”,是各家技術(shù)團隊發(fā)力比拼的重要方向。大模型中很多讓人驚嘆的功能,都跟它有關(guān)。

比如 DeepSeek R1 發(fā)布后,大家都震驚于它能展示詳盡的CoT(Chain of Thought),思維鏈。

而根據(jù)官方論文,CoT 的出現(xiàn),是因為團隊在后訓練中的監(jiān)督微調(diào)階段,特意喂了 60 萬條推理數(shù)據(jù)。然后又通過我們剛才說的這套 GRPO 的強化學習流程,引導大模型自己篩選有效思路,最終實現(xiàn)了強大的推理能力。

ok,經(jīng)過預訓練,后訓練,包括強化學習階段,一個完整的大模型終于可以做出來了。我們整個框架的講解也已經(jīng)接近尾聲。如果有些內(nèi)容沒記住也沒關(guān)系,我們總結(jié)成了下面這張圖片提供給你~

既然已經(jīng)學會了,那讓我們開始手搓一個大模型吧——

開玩笑的~我們哪會。不光不會手搓,甚至都無法把別人手搓好的大模型裝到電腦里。

你可能會說,這不對吧?當時 DeepSeek R1 剛發(fā)布的時候火爆到宕機,不是有很多人教我們在電腦上部署大模型嗎?

實際上,我們的電腦根本跑不動滿血模型~所以當時部署到電腦上的,都是所謂的“蒸餾模型”,你可以把它們理解成“高仿版”。

比如這個模型的本質(zhì),是用阿里的 Qwen 32B 這個參數(shù)較小的模型,去“學習”滿血版 Deepseek R1 671B 的輸出結(jié)果,據(jù)此調(diào)整參數(shù),做出一個“高仿”的 Deepseek R1 ,所以叫“蒸餾”。

除了蒸餾模型外,你還能在大模型社區(qū)上看到很多這樣的“量化模型”,相當于成原版大模型的“壓縮版”,因為它們就是把大模型中精度極高的參數(shù),轉(zhuǎn)化為精度沒那么高的參數(shù),從而降低模型的體積和性能要求。

很多個人電腦里部署的,都是這些壓縮或高仿版的模型~

講到這里,這些亂七八糟的名詞就差不多講完了。

我們也要多啰嗦一句:這期視頻的部分思路受到了前 OpenAI 的科學家安德烈·卡帕斯(Andrej Karpathy)在 YouTube 上這期長達 3 個半小時的口播視頻的啟發(fā)。如果有條件有耐心的話,你也可以去學習一個~

最后,我們不知道有多少人看到這里——看完的可以在評論里舉個手——

因為柴司有同學看完這期文稿后說,有點暈,像上課,信息太密集。但沒辦法,關(guān)于大模型的一切都很抽象,確實需要一點耐心才能看下來。

如果你覺得這對你有所幫助,那歡迎點贊轉(zhuǎn)發(fā),讓我們知道這期視頻是不是真的有人看~

下期見!

特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺“網(wǎng)易號”用戶上傳并發(fā)布,本平臺僅提供信息存儲服務。

Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.

相關(guān)推薦
熱點推薦
全線大跌,超22萬人爆倉!剛剛,黃金、白銀,直線跳水

全線大跌,超22萬人爆倉!剛剛,黃金、白銀,直線跳水

中國基金報
2026-01-30 09:29:21
2026年喪葬費撫恤金迎來上調(diào),企退30年和事退30年,差距有多大?

2026年喪葬費撫恤金迎來上調(diào),企退30年和事退30年,差距有多大?

貓叔東山再起
2026-01-30 09:10:03
揭秘四川男籃重回全華班:未按時支付工資 兩外援放棄繼續(xù)征戰(zhàn)

揭秘四川男籃重回全華班:未按時支付工資 兩外援放棄繼續(xù)征戰(zhàn)

醉臥浮生
2026-01-30 20:45:48
中使館發(fā)最強“戰(zhàn)斗檄文”:馬科斯驅(qū)逐中國大使,但所有人將離開

中使館發(fā)最強“戰(zhàn)斗檄文”:馬科斯驅(qū)逐中國大使,但所有人將離開

諦聽骨語本尊
2026-01-30 11:40:39
央視實錘!成本2元賣價19800元!不少人被騙,趕緊別用了

央視實錘!成本2元賣價19800元!不少人被騙,趕緊別用了

素衣讀史
2026-01-28 17:22:30
逼急了?網(wǎng)約車司機將車子開到幾百公里外深山,公司找到車時已被鋼筋插土、膠水粘牢!

逼急了?網(wǎng)約車司機將車子開到幾百公里外深山,公司找到車時已被鋼筋插土、膠水粘牢!

網(wǎng)約車觀察室
2026-01-29 10:13:36
明明長得一模一樣,為啥一個叫牡蠣,另一個叫生蠔?

明明長得一模一樣,為啥一個叫牡蠣,另一個叫生蠔?

半解智士
2026-01-30 17:14:17
央視暗訪曝光!超市“完美蔬菜”竟是毒菜,高毒農(nóng)藥,清洗也沒用

央視暗訪曝光!超市“完美蔬菜”竟是毒菜,高毒農(nóng)藥,清洗也沒用

現(xiàn)代小青青慕慕
2026-01-30 11:08:23
手握重兵,權(quán)傾朝野的話事人,為何在政變時坐以待斃、不做反抗?

手握重兵,權(quán)傾朝野的話事人,為何在政變時坐以待斃、不做反抗?

歷史按察使司
2026-01-30 08:31:52
國際金銀價格大幅下跌 白銀、黃金分別重挫13%、6.5%

國際金銀價格大幅下跌 白銀、黃金分別重挫13%、6.5%

財聯(lián)社
2026-01-30 17:30:14
“正常爹看女兒,就不可能是這種眼神”,女兒被爸爸壓腿視頻火了

“正常爹看女兒,就不可能是這種眼神”,女兒被爸爸壓腿視頻火了

妍妍教育日記
2026-01-30 21:56:10
30號午評:國際金銀大跳水!所有人都注意了,大盤下周或?qū)⑦@樣走

30號午評:國際金銀大跳水!所有人都注意了,大盤下周或?qū)⑦@樣走

春江財富
2026-01-30 11:53:37
官媒怒批!吳京新片《鏢人》未映先爆雷,30人8個頭銜太荒唐!

官媒怒批!吳京新片《鏢人》未映先爆雷,30人8個頭銜太荒唐!

史行途
2026-01-30 09:43:04
5秒10槍震驚全美,特朗普知道事情鬧大了,緊急改口,搬出三板斧

5秒10槍震驚全美,特朗普知道事情鬧大了,緊急改口,搬出三板斧

井普椿的獨白
2026-01-30 17:24:55
172:199,日本選舉殺出黑馬,"新首相"對華態(tài)度成最大看點

172:199,日本選舉殺出黑馬,"新首相"對華態(tài)度成最大看點

書紀文譚
2026-01-30 14:07:45
“我媽媽沒了”女乘客在高鐵上得知母親去世后,情緒崩潰大哭,乘客們都關(guān)掉手機聲安靜陪伴

“我媽媽沒了”女乘客在高鐵上得知母親去世后,情緒崩潰大哭,乘客們都關(guān)掉手機聲安靜陪伴

觀威海
2026-01-30 11:10:25
范志毅也沒想到,出獄10年的祁宏,如今搖身一變,又成了足球總監(jiān)

范志毅也沒想到,出獄10年的祁宏,如今搖身一變,又成了足球總監(jiān)

涵豆說娛
2026-01-30 19:27:20
他年紀輕輕財富自由,背地里性虐成狂。打壞女人隆胸假體,叫她換硅膠的,更耐打..

他年紀輕輕財富自由,背地里性虐成狂。打壞女人隆胸假體,叫她換硅膠的,更耐打..

英國那些事兒
2026-01-29 23:25:43
歐盟將伊朗伊斯蘭革命衛(wèi)隊列為“恐怖組織”

歐盟將伊朗伊斯蘭革命衛(wèi)隊列為“恐怖組織”

新華社
2026-01-29 23:20:11
相親點餐8000元男子吃完跑路,女子多次聯(lián)系無果,讓婚介公司買單

相親點餐8000元男子吃完跑路,女子多次聯(lián)系無果,讓婚介公司買單

漢史趣聞
2026-01-30 14:31:58
2026-01-31 00:47:00
柴知道
柴知道
用有趣的方式,講有價值的知識
401文章數(shù) 84174關(guān)注度
往期回顧 全部

科技要聞

意念控制機器人不是科幻 1-2年就落地

頭條要聞

特朗普警告稱中英、中加合作是"危險的" 外交部回應

頭條要聞

特朗普警告稱中英、中加合作是"危險的" 外交部回應

體育要聞

“假賭黑”的子彈,還要再飛一會兒嗎?

娛樂要聞

警方通報金晨交通事故,否認網(wǎng)傳騙保

財經(jīng)要聞

水貝驚雷:揭秘杰我睿百億黃金賭局的背后

汽車要聞

合資品牌首搭800V/5C快充 東風日產(chǎn)NX8將于3、4月上市

態(tài)度原創(chuàng)

本地
手機
教育
家居
時尚

本地新聞

云游中國|撥開云霧,巫山每幀都是航拍大片

手機要聞

差200元!紅米Turbo 5與Max該怎么選?這4點核心差異看完不糾結(jié)!

教育要聞

China Heartbeats | Middle School Tug-of-War Ignite...

家居要聞

藍調(diào)空舍 自由與個性

今日熱點:《閃靈》今日上映;保險公司確認金晨方曾放棄索賠……

無障礙瀏覽 進入關(guān)懷版