国产av一二三区|日本不卡动作网站|黄色天天久久影片|99草成人免费在线视频|AV三级片成人电影在线|成年人aV不卡免费播放|日韩无码成人一级片视频|人人看人人玩开心色AV|人妻系列在线观看|亚洲av无码一区二区三区在线播放

網(wǎng)易首頁 > 網(wǎng)易號 > 正文 申請入駐

大模型本地部署,全能選手LM-Studio,你可能只用了一半

0
分享至

關于本地部署大模型和 Ollama 的話題,我之前寫過不少:

為了寫,我又重新玩了一下 LM Studio —— 這個本地大模型的"全能選手"


LM Studio 主界面

說實話,我之前對 LM Studio 的印象還停留在"點一下就能跑模型的桌面APP"。但在 0.4 版本之后,它已經(jīng)進化成了一個完整的本地 AI 開發(fā)平臺,很多隱藏用法很多同學可能都不知道。

簡介

LM Studio 是一款支持在本地運行 AI 大模型的工具,支持 Mac、Linux 和 Windows 全平臺。和 Ollama 不同,LM Studio 自帶一個漂亮的圖形界面,入門門檻極低——下載、搜索模型、點擊運行,三步搞定。


LM Studio 主界面

目前支持的主流模型相當多:gpt-oss、Qwen3、Gemma 3、DeepSeek 等等,基本上 Hugging Face 上熱門的 GGUF 和 MLX 模型都能跑。

但今天我不想聊桌面端怎么點點點,那些是給新手看的。我想重點聊聊 LM Studio 那些真正硬核、但被大多數(shù)人忽視的用法。

0.4 版本:全面進化

1 月,LM Studio 發(fā)布了 0.4.0 大版本更新,這不是一個小修小補的版本,而是一次架構級的重構。

核心變化有四個:


llmster 無頭部署模式

1. llmster:無 GUI 的守護進程

這是 0.4 最炸裂的更新。LM Studio 把 GUI 和核心推理引擎拆開了,推出了llmster—— 一個可以脫離桌面界面獨立運行的守護進程

什么意思?就是你現(xiàn)在可以把 LM Studio 的核心部署到任何沒有圖形界面的機器上:云服務器、GPU 算力機、CI/CD 流水線、甚至 Google Colab。

安裝一行命令搞定:

# Linux / Mac
curl -fsSL https://lmstudio.ai/install.sh | bash


# Windows
irm https://lmstudio.ai/install.ps1 | iex

啟動也很簡單:

lms daemon up         # 啟動守護進程
lms get # 下載模型
lms server start # 啟動本地 API 服務器
lms chat # 打開交互式聊天

這意味著什么?意味著你家里那臺 4090 機器可以當 API 服務器用了,不需要開桌面、不需要一直盯著屏幕。llmster+lmsCLI,就是一套完整的無頭部署方案。

2. 并行請求 + 連續(xù)批處理

之前 LM Studio 同時只能處理一個請求,后面的排隊

0.4 之后,基于 llama.cpp 2.0 的連續(xù)批處理實現(xiàn),支持同一模型的多個并發(fā)推理請求

加載模型時有兩個新選項:

  • Max Concurrent Predictions:設置最大并發(fā)請求數(shù)(默認 4)

  • Unified KV Cache:統(tǒng)一 KV 緩存,硬件資源不會按請求硬分區(qū),幾乎不增加內(nèi)存開銷

對于需要對外提供 API 服務的場景,這個能力直接讓 LM Studio 從"玩具"變成了"生產(chǎn)工具"

3. 全新的有狀態(tài) REST API:/v1/chat

這個端點和傳統(tǒng)的 Chat Completions 不一樣。/v1/chat有狀態(tài)的:你發(fā)一條消息,會拿到一個response_id,下次請求把previous_response_id帶上就能繼續(xù)對話。

這樣的好處是:

  • 每次請求體很小,不用來回傳整個聊天記錄

  • 方便構建多步驟工作流

  • 響應自帶 token 統(tǒng)計和速度數(shù)據(jù)(tokens in/out、首 token 時間等)

  • 還能通過 permission keys 訪問本地 MCP 工具

4. UI 大刷新

聊天導出(PDF/Markdown/純文本)、分屏視圖、Developer Mode、應用內(nèi)文檔——這些都是錦上添花,但確實讓整個用戶體驗上了一個臺階。


聊天導出功能 核心:LM Studio 不為人知的開發(fā)者用法

好,下面進入今天的重頭戲

大部分人只把 LM Studio 當個聊天工具,但它其實提供了一整套開發(fā)者生態(tài)

用法一:OpenAI 兼容 API —— 不改代碼,換個 URL 就行

這是我覺得最實用的功能之一

LM Studio 提供了完整的 OpenAI 兼容端點:

端點

功能

/v1/models

列出可用模型

/v1/responses

Responses API(Codex 也用這個)

/v1/chat/completions

傳統(tǒng)的 Chat Completions

/v1/embeddings

文本嵌入

/v1/completions

文本補全

啥意思呢?你現(xiàn)在用 OpenAI SDK 跑的代碼,只需要改一行 base_url,就能切到本地模型

Python 示例:

from openai import OpenAI

client = OpenAI(
base_url="http://localhost:1234/v1"
)

response = client.chat.completions.create(
model="use the model identifier from LM Studio here",
messages=[{"role": "user", "content": "Say this is a test!"}],
temperature=0.7
)

TypeScript 示例:

import OpenAI from 'openai';


const client = new OpenAI({
baseUrl: "http://localhost:1234/v1"
});

cURL 也一樣:

curl http://localhost:1234/v1/chat/completions \
-H "Content-Type: application/json" \
-d '{
"model": "openai/gpt-oss-20b",
"messages": [{"role": "user", "content": "Hello!"}],
"temperature": 0.7
}'

這對開發(fā)者來說太友好了

你寫好的 Agent、RAG 應用、AI 工作流,測試階段完全可以用本地模型跑,零成本。上線時再切回 OpenAI 或 DeepSeek 的 API

甚至連 OpenAI 的 Codex 都支持直接對接 LM Studio

用法二:Anthropic 兼容 API —— Claude Code 也能白嫖

這個就更騷了。從 0.4.1 開始,LM Studio 還提供了Anthropic 兼容的/v1/messages端點。

什么意思?Claude Code 不需要用 Anthropic 的 API Key 了,直接指向 LM Studio 就行!

三步搞定:

第一步:啟動 LM Studio 的本地服務器

lms server start --port 1234

第二步:設置環(huán)境變量

export ANTHROPIC_BASE_URL=http://localhost:1234
export ANTHROPIC_AUTH_TOKEN=lmstudio

第三步:運行 Claude Code

claude --model openai/gpt-oss-20b
Claude Code 配合 LM Studio 使用

就這么簡單。你用本地的 GGUF 或 MLX 模型,就能驅(qū)動 Claude Code

建議上下文窗口設到 25K tokens 以上,因為 Claude Code 消耗上下文比較猛

如果你在 VS Code 里用 Claude Code,也可以直接在設置里配:

"claudeCode.environmentVariables": [
{
"name": "ANTHROPIC_BASE_URL",
"value": "http://localhost:1234"
},
{
"name": "ANTHROPIC_AUTH_TOKEN",
"value": "lmstudio"
}
]

支持的功能也很完整:Messages API、SSE 流式傳輸、Tool Use 都能用

用 Anthropic 的 Python SDK 也可以直接對接:

from anthropic import Anthropic

client = Anthropic(
base_url="http://localhost:1234",
api_key="lmstudio",
)

message = client.messages.create(
max_tokens=1024,
messages=[
{"role": "user", "content": "Hello from LM Studio"}
],
model="ibm/granite-4-micro",
)
print(message.content)

同時兼容 OpenAI 和 Anthropic 兩大 API,這在本地部署工具里幾乎是獨一份

用法三:CLI 工具lms—— 命令行控的福音

LM Studio 自帶命令行工具lms,從 0.2.22 版本就有了。但到了 0.4,CLI 的體驗完全煥然一新

安裝很簡單,會隨 LM Studio 桌面端或llmster一起安裝

npx lmstudio install-cli

常用命令速查:

lms status          # 檢查 LM Studio 狀態(tài)
lms server start # 啟動 API 服務器
lms server stop # 停止 API 服務器
lms ls # 列出已下載模型
lms ls --json # JSON 格式輸出(適合腳本處理)
lms ps # 查看當前加載的模型
lms load # 加載模型
lms load -y # 最大 GPU 加速加載,跳過確認
lms unload --all # 卸載所有模型
lms get # 下載模型
lms chat # 交互式聊天(新!)
lms create # 創(chuàng)建 SDK 項目
lms log stream # 實時查看日志
lms runtime survey # 打印 GPU 信息
lms runtime update llama.cpp # 更新推理引擎

重點說下lms chat,0.4 新增的命令。

直接在終端里開聊,支持斜杠命令、思考過程高亮、粘貼大段內(nèi)容??捎玫男备苊睿?code>/model、/download/system-prompt、/help、/exit

對于喜歡 Terminal 的同學來說,完全不需要打開圖形界面就能完成下載模型 → 加載模型 → 聊天 → 調(diào)試 的全部流程。

用法四:原生 SDK —— TypeScript 和 Python 都安排了

除了兼容 OpenAI/Anthropic 的 API,LM Studio 還提供了自己的原生 SDK

TypeScript SDK

npm install @lmstudio/sdk

import { LMStudioClient } from "@lmstudio/sdk";


const client = new LMStudioClient();
const model = await client.llm.model("openai/gpt-oss-20b");
const result = await model.respond("Who are you, and what can you do?");
console.info(result.content);

Python SDK

pip install lmstudio

import lmstudio as lms


with lms.Client() as client:
model = client.llm.model("openai/gpt-oss-20b")
result = model.respond("Who are you, and what can you do?")
print(result)

原生 SDK 的好處是能力更全面:除了聊天和文本生成,還支持 Tool Calling、MCP 支持、結構化輸出(JSON Schema)、Embedding 和 Tokenization、模型管理(加載、下載、列表)等高級功能

LM Studio 的 REST API

lms server start --port 1234

curl http://localhost:1234/api/v1/chat \
-H "Content-Type: application/json" \
-H "Authorization: Bearer $LM_API_TOKEN" \
-d '{
"model": "openai/gpt-oss-20b",
"input": "Who are you, and what can you do?"
}'
用法五:LM Link —— 遠程加載你的模型

這是 LM Studio 最新推出的功能,目前還在 Preview 階段,但思路很超前


LM Link 設備連接示意

LM Link 的核心思想:你可能有好幾臺機器(家里的 GPU 機器、公司顯卡、云服務器),LM Link 讓你在任何一臺設備上,像使用本地模型一樣使用遠程設備上的模型。

  • 基于Tailscale的 mesh VPN,端到端加密,不暴露公網(wǎng)端口

  • 聊天數(shù)據(jù)保留在本地,重活累活交給遠端的 GPU

  • 連你的localhost:1234接口都通用——也就是說 Codex、Claude Code、OpenCode 這些工具也能通過 LM Link 使用遠程模型

價格方面,免費版支持 2 個用戶、每人 5 臺設備(總共 10 臺),家用和工作都可以

這個功能對多機用戶太香了

比如你家里放一臺 4090 算力機,上班時用 MacBook 通過 LM Link 無縫調(diào)用家里的模型

說實話,如果你只是想快速跑個模型聊天,Ollama 的ollama run確實更簡單。但如果你有以下需求,LM Studio 更合適:

  • 需要同時兼容 OpenAI 和 Anthropic 兩套 API

  • 多臺機器之間共享模型資源

  • 需要有狀態(tài)的 REST API + MCP 工具調(diào)用

  • 想用原生 SDK 做開發(fā)

總結

LM Studio 在 0.4 之后,已經(jīng)不是一個簡單的"本地聊天工具"了。它是一個完整的本地 AI 推理平臺:

  • 桌面端給新手用,CLI + llmster 給開發(fā)者用

  • OpenAI + Anthropic 雙兼容,幾乎所有 AI 開發(fā)工具都能無縫對接

  • LM Link 打通多設備,遠程模型像本地一樣用

  • 有狀態(tài) API + MCP + SDK,想怎么玩就怎么玩

制作不易,如果這篇文章覺得對你有用,可否點個關注。給我個三連擊:點贊、轉(zhuǎn)發(fā)和在看。若可以再給我加個,謝謝你看我的文章,我們下篇再見!

特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺“網(wǎng)易號”用戶上傳并發(fā)布,本平臺僅提供信息存儲服務。

Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.

相關推薦
熱點推薦
罰15億!拼多多一員工故意關門,對抗調(diào)查,導致執(zhí)法人員手指骨折

罰15億!拼多多一員工故意關門,對抗調(diào)查,導致執(zhí)法人員手指骨折

魔都姐姐雜談
2026-04-19 08:03:27
長沙火了!全球最大零食店開業(yè)3天就被擠停售,背后真相曝光

長沙火了!全球最大零食店開業(yè)3天就被擠停售,背后真相曝光

西昆侖Bruce
2026-04-19 19:52:58
不敢相信她有五十多歲了

不敢相信她有五十多歲了

科學發(fā)掘
2026-04-19 21:09:22
“磨膝大戶”被公布,是跑步的20倍,醫(yī)生:不想軟骨磨光,早扔掉

“磨膝大戶”被公布,是跑步的20倍,醫(yī)生:不想軟骨磨光,早扔掉

垚垚分享健康
2026-04-19 14:35:09
北京國際電影節(jié)開幕式,韓紅:李乃文是不是真的他唱的

北京國際電影節(jié)開幕式,韓紅:李乃文是不是真的他唱的

韓小娛
2026-04-17 07:45:14
“最快女護士”張水華云南石屏馬拉松退賽,本人回應:不舒服就沒跑;其辭職后已拿下兩個冠軍,獲折現(xiàn)超20萬獎勵

“最快女護士”張水華云南石屏馬拉松退賽,本人回應:不舒服就沒跑;其辭職后已拿下兩個冠軍,獲折現(xiàn)超20萬獎勵

極目新聞
2026-04-19 12:01:08
哈工大畢業(yè)失業(yè)四五年被吐槽!網(wǎng)友:農(nóng)村大學生大多數(shù)過得比較差

哈工大畢業(yè)失業(yè)四五年被吐槽!網(wǎng)友:農(nóng)村大學生大多數(shù)過得比較差

火山詩話
2026-04-19 10:40:38
普京訪華行程敲定,特朗普已下命令,中國向全球通告,無懼美國

普京訪華行程敲定,特朗普已下命令,中國向全球通告,無懼美國

老牧說說
2026-04-20 00:29:36
中國人在哈薩克斯坦生活實錄:飯?zhí)唷⑴颂S、聊天太上頭了!

中國人在哈薩克斯坦生活實錄:飯?zhí)?、女人太颯、聊天太上頭了!

老特有話說
2026-04-19 15:29:16
蒜苔開始上市!再三強調(diào):高血壓患者吃蒜苔時,多注意這5點

蒜苔開始上市!再三強調(diào):高血壓患者吃蒜苔時,多注意這5點

芹姐說生活
2026-04-18 14:47:34
隨著41歲C羅破門+利雅得勝利4-0,亞冠二級4強已誕生3席

隨著41歲C羅破門+利雅得勝利4-0,亞冠二級4強已誕生3席

側(cè)身凌空斬
2026-04-20 00:01:29
調(diào)查發(fā)現(xiàn):每天都走路的人,大多到了75歲后,身體或有5種變化

調(diào)查發(fā)現(xiàn):每天都走路的人,大多到了75歲后,身體或有5種變化

白話電影院
2026-04-07 13:28:35
德國戰(zhàn)敗后,古德里安為什么能無罪釋放?他是一個有底線的軍人

德國戰(zhàn)敗后,古德里安為什么能無罪釋放?他是一個有底線的軍人

小莜讀史
2026-04-18 14:46:46
神秘消失數(shù)月后突然現(xiàn)身!美國最頭疼的人,悄悄到了巴格達

神秘消失數(shù)月后突然現(xiàn)身!美國最頭疼的人,悄悄到了巴格達

菁菁子衿
2026-04-19 19:41:04
丁俊暉7-2吉爾伯特,罕見“生氣”扔了巧粉夾,中國裁判幫他撿回

丁俊暉7-2吉爾伯特,罕見“生氣”扔了巧粉夾,中國裁判幫他撿回

真理是我親戚
2026-04-19 22:16:28
魏積安現(xiàn)狀:在山東過田園生活,70歲身體很硬朗,妻兒都是普通人

魏積安現(xiàn)狀:在山東過田園生活,70歲身體很硬朗,妻兒都是普通人

大魚簡科
2026-04-19 19:19:17
痛苦,火箭隊杜蘭特在打湖人隊首場比賽前的訓練中表情說明了一切

痛苦,火箭隊杜蘭特在打湖人隊首場比賽前的訓練中表情說明了一切

好火子
2026-04-20 03:29:10
火箭3主力身價暴跌!申京三無產(chǎn)品,謝潑德攻守全崩,阿門狂被帽

火箭3主力身價暴跌!申京三無產(chǎn)品,謝潑德攻守全崩,阿門狂被帽

籃球資訊達人
2026-04-19 12:26:12
伊朗未證實伊美復談消息

伊朗未證實伊美復談消息

界面新聞
2026-04-19 20:45:22
馬蹄露自薦做團長后續(xù)!張敬軒粉絲不忍了,開始發(fā)文攻擊了

馬蹄露自薦做團長后續(xù)!張敬軒粉絲不忍了,開始發(fā)文攻擊了

小徐講八卦
2026-04-19 11:27:40
2026-04-20 03:55:00
Ai學習的老章 incentive-icons
Ai學習的老章
Ai學習的老章
3334文章數(shù) 11137關注度
往期回顧 全部

科技要聞

50分26秒破人類紀錄!300臺機器人狂飆半馬

頭條要聞

半年下沉22厘米 女子家中坐擁價值上億別墅卻沒法住人

頭條要聞

半年下沉22厘米 女子家中坐擁價值上億別墅卻沒法住人

體育要聞

湖人1比0火箭:老詹比烏度卡像教練

娛樂要聞

何潤東漲粉百萬!內(nèi)娛隔空掀桌第一人

財經(jīng)要聞

華誼兄弟,8年虧光85億

汽車要聞

29分鐘大定破萬 極氪8X為什么這么多人買?

態(tài)度原創(chuàng)

手機
本地
藝術
教育
公開課

手機要聞

8.8英寸小鋼炮!REDMI K Pad 2核心配置揭曉

本地新聞

12噸巧克力有難,全網(wǎng)化身超級偵探添亂

藝術要聞

超模施特洛耶克寫真曝光,簡直美到窒息,別錯過!

教育要聞

655家單位、1.29萬個崗位,湖南用心幫大學生找工作

公開課

李玫瑾:為什么性格比能力更重要?

無障礙瀏覽 進入關懷版