国产av一二三区|日本不卡动作网站|黄色天天久久影片|99草成人免费在线视频|AV三级片成人电影在线|成年人aV不卡免费播放|日韩无码成人一级片视频|人人看人人玩开心色AV|人妻系列在线观看|亚洲av无码一区二区三区在线播放

網(wǎng)易首頁 > 網(wǎng)易號 > 正文 申請入駐

大模型量化(GPTQ、GGUF)實(shí)戰(zhàn)以及效果和推理性能實(shí)測

0
分享至

省流:看 OTPS 指標(biāo),llama.cpp 單用戶性能最好,但是大并發(fā)性能下,vllm+GPTQ > vllm+GGUF

1. 安裝環(huán)境

硬件環(huán)境:

  • GTX 4090 24GB x 1

  • Windows 11 + WSL2

  • Driver Version: 581.29

安裝軟件環(huán)境(依賴conda: https://conda-forge.org/download/)

# 國內(nèi)配置:export HF_ENDPOINT=https://hf-mirror.com conda create -n llm-speedup python==3.12 conda activate llm-speedup pip install "vllm==0.10.2" "sglang==0.5.2" "evalscope[perf]==1.0.1" langdetect immutabledict cd llm-compressor pip install -e ./ pip install "datasets<4.0.0" # fix evalscope datasets failed
2. 量化 2.1 使用 llm-compressor GPTQ 量化

我們以 GPTQ w4a16g128 量化 Qwen/Qwen3-4B-Instruct-2507 模型為例,其他量化方法(AWQ等)請參考 llm-compressor 文檔。

# 生成校準(zhǔn)數(shù)據(jù)集,使用中英文高質(zhì)量 SFT 數(shù)據(jù) python calib_data.py # 進(jìn)行 GPTQ 量化 python qwen3_dense_instruct_w4a16.py # 逐層量化,大約需要 10 - 20 分鐘
  • 校準(zhǔn)數(shù)據(jù)集使用中英文混合的高質(zhì)量對話 SFT 數(shù)據(jù)1024條。

  • 從各種評測和經(jīng)驗(yàn)看,推薦使用 GPTQ w8a16/w4a16 量化,效果損失最小。

  • 注意 MoE 模型量化時(shí),需要額外忽略 Gate 層,避免量化誤差過大。

  • 如果量化損失過大,可以控制忽略掉前 N 層。

2.2 GPTQ 量化前后效果分析

# 啟動(dòng)bf16推理服務(wù) vllm serve Qwen/Qwen3-4B-Instruct-2507 --max-model-len 8192 --served-model-name Qwen3-4B-Instruct-2507 --port 8080 # 評測 Math500(數(shù)學(xué))、IFEval(指令遵循)、IQuiz(中文理解) evalscope eval \  --model Qwen3-4B-Instruct-2507 \  --api-url http://127.0.0.1:8080/v1 \  --api-key EMPTY \  --eval-type openai_api \  --datasets math_500 ifeval iquiz \  --eval-batch-size 100 +------------------------+-----------+--------------------------+----------+-------+---------+---------+ | Model                  | Dataset   | Metric                   | Subset   |   Num |   Score | Cat.0   | +========================+===========+==========================+==========+=======+=========+=========+ | Qwen3-4B-Instruct-2507 | ifeval    | mean_prompt_level_strict | default  |   541 |  0.8299 | default | | Qwen3-4B-Instruct-2507 | ifeval    | mean_inst_level_strict   | default  |   541 |  0.8882 | default | | Qwen3-4B-Instruct-2507 | iquiz     | mean_acc                 | OVERALL  |   120 |  0.525  | -       | | Qwen3-4B-Instruct-2507 | math_500  | mean_acc                 | OVERALL  |   500 |  0.776  | -       | +------------------------+-----------+--------------------------+----------+-------+---------+---------+  # 啟動(dòng)w4a16推理服務(wù) vllm serve Qwen3-4B-Instruct-2507-W4A16-G128 --max-model-len 8192 --served-model-name Qwen3-4B-Instruct-2507-W4A16-G128 --port 8080 # 評測 evalscope eval \  --model Qwen3-4B-Instruct-2507-W4A16-G128 \  --api-url http://127.0.0.1:8080/v1 \  --api-key EMPTY \  --eval-type openai_api \  --datasets math_500 ifeval iquiz \  --eval-batch-size 100 +-----------------------------------+-----------+--------------------------+----------+-------+---------+---------+ | Model                             | Dataset   | Metric                   | Subset   |   Num |   Score | Cat.0   | +===================================+===========+==========================+==========+=======+=========+=========+ | Qwen3-4B-Instruct-2507-W4A16-G128 | ifeval    | mean_prompt_level_strict | default  |   541 |  0.8355 | default | | Qwen3-4B-Instruct-2507-W4A16-G128 | ifeval    | mean_inst_level_strict   | default  |   541 |  0.8879 | default | | Qwen3-4B-Instruct-2507-W4A16-G128 | iquiz     | mean_acc                 | OVERALL  |   120 |  0.5333 | -       | | Qwen3-4B-Instruct-2507-W4A16-G128 | math_500  | mean_acc                 | OVERALL  |   500 |  0.782  | -       | +-----------------------------------+-----------+--------------------------+----------+-------+---------+---------+ 

發(fā)現(xiàn):量化后指標(biāo)反而全面高于未量化模型,這是因?yàn)槲覀兊男?zhǔn)數(shù)據(jù)集為高質(zhì)量 SFT 數(shù)據(jù),屬于正?,F(xiàn)象。

2.3 GPTQ 量化前后 vLLM 推理性能分析

vllm serve Qwen/Qwen3-4B-Instruct-2507 --max-model-len 8192 --served-model-name Qwen3-4B-Instruct-2507 --port 8080 evalscope perf \   --parallel 1 10 20 50 100 \   --number 10 30 50 100 200 \   --model Qwen3-4B-Instruct-2507 \   --url http://127.0.0.1:8080/v1/chat/completions \   --api openai \   --dataset random \   --max-tokens 1024 \   --min-tokens 1024 \   --prefix-length 0 \   --min-prompt-length 1024 \   --max-prompt-length 1024 \   --tokenizer-path Qwen3-4B-Instruct-2507 \   --extra-args '{"ignore_eos": true}' ┏━━━━━━┳━━━━━━┳━━━━━━━━━━┳━━━━━━━━━━┳━━━━━━━━━┳━━━━━━━━━━┳━━━━━━━━━┳━━━━━━━━━━┳━━━━━━━━━┳━━━━━━━━━━┓ ┃      ┃      ┃      Avg ┃      P99 ┃    Gen. ┃      Avg ┃     P99 ┃      Avg ┃     P99 ┃   Success┃ ┃Conc. ┃  RPS ┃  Lat.(s) ┃  Lat.(s) ┃  toks/s ┃  TTFT(s) ┃ TTFT(s) ┃  TPOT(s) ┃ TPOT(s) ┃      Rate┃ ┡━━━━━━╇━━━━━━╇━━━━━━━━━━╇━━━━━━━━━━╇━━━━━━━━━╇━━━━━━━━━━╇━━━━━━━━━╇━━━━━━━━━━╇━━━━━━━━━╇━━━━━━━━━━┩ │    1 │ 0.09 │   11.530 │   11.588 │   88.81 │    0.050 │   0.065 │    0.011 │   0.011 │    100.0%│ │   10 │ 0.65 │   15.284 │   15.711 │  669.34 │    0.288 │   0.628 │    0.015 │   0.015 │    100.0%│ │   20 │ 0.93 │   18.492 │   20.202 │  954.49 │    0.467 │   1.304 │    0.018 │   0.019 │    100.0%│ │   50 │ 1.52 │   30.359 │   38.295 │ 1555.54 │    1.214 │   3.216 │    0.029 │   0.034 │    100.0%│ │  100 │ 1.54 │   54.048 │   75.195 │ 1579.02 │   13.821 │  39.359 │    0.039 │   0.066 │    100.0%│ └──────┴──────┴──────────┴──────────┴─────────┴──────────┴─────────┴──────────┴─────────┴──────────┘ vllm serve Qwen3-4B-Instruct-2507-W4A16-G128 --max-model-len 8192 --served-model-name Qwen3-4B-Instruct-2507-W4A16-G128 --port 8080 evalscope perf \   --parallel 1 10 20 50 100 \   --number 10 30 50 100 200 \   --model Qwen3-4B-Instruct-2507-W4A16-G128 \   --url http://127.0.0.1:8080/v1/chat/completions \   --api openai \   --dataset random \   --max-tokens 1024 \   --min-tokens 1024 \   --prefix-length 0 \   --min-prompt-length 1024 \   --max-prompt-length 1024 \   --tokenizer-path Qwen3-4B-Instruct-2507-W4A16-G128 \   --extra-args '{"ignore_eos": true}' ┏━━━━━━┳━━━━━━┳━━━━━━━━━━┳━━━━━━━━━━┳━━━━━━━━━┳━━━━━━━━━━┳━━━━━━━━━┳━━━━━━━━━━┳━━━━━━━━━┳━━━━━━━━━━┓ ┃      ┃      ┃      Avg ┃      P99 ┃    Gen. ┃      Avg ┃     P99 ┃      Avg ┃     P99 ┃   Success┃ ┃Conc. ┃  RPS ┃  Lat.(s) ┃  Lat.(s) ┃  toks/s ┃  TTFT(s) ┃ TTFT(s) ┃  TPOT(s) ┃ TPOT(s) ┃      Rate┃ ┡━━━━━━╇━━━━━━╇━━━━━━━━━━╇━━━━━━━━━━╇━━━━━━━━━╇━━━━━━━━━━╇━━━━━━━━━╇━━━━━━━━━━╇━━━━━━━━━╇━━━━━━━━━━┩ │    1 │ 0.16 │    6.150 │    9.323 │  166.50 │    0.059 │   0.068 │    0.006 │   0.009 │    100.0%│ │   10 │ 1.03 │    9.666 │   10.177 │ 1058.72 │    0.386 │   0.807 │    0.009 │   0.009 │    100.0%│ │   20 │ 1.29 │   13.762 │   15.793 │ 1316.59 │    0.528 │   1.476 │    0.013 │   0.014 │    100.0%│ │   50 │ 1.77 │   28.100 │   31.295 │ 1816.37 │    1.165 │   3.533 │    0.026 │   0.027 │    100.0%│ │  100 │ 1.76 │   50.314 │   83.056 │ 1805.55 │    7.330 │  28.528 │    0.042 │   0.074 │    100.0%│ └──────┴──────┴──────────┴──────────┴─────────┴──────────┴─────────┴──────────┴─────────┴──────────┘

發(fā)現(xiàn):量化后,單用戶 OTPS 提升 100%,但是最大 OTPS 提升較少。

2.4 GGUF imatrix 量化

GGUF 各種量化方法參考:https://huggingface.co/docs/hub/en/gguf

我們使用 imatrix 4bit 量化(類似于 GPTQ的方法)IQ4_XS

git clone https://github.com/ggml-org/llama.cpp.git # INSTALL CUDA TOOLKIT: https://developer.nvidia.com/cuda-toolkit-archive # 安裝依賴庫 sudo apt-get install cmake curl libssl-dev libcurl4-openssl-dev # 配置cuda 的路徑,具體和你的CUDA版本有關(guān) export PATH=/usr/local/cuda-12.6/bin${PATH:+:${PATH}} export LD_LIBRARY_PATH=/usr/local/cuda-12.6/lib64${LD_LIBRARY_PATH:+:${LD_LIBRARY_PATH}} # 編輯 llama.cpp GPU 版本 cmake -B build -DGGML_CUDA=ON cmake --build build --config Release -j16 # 把模型下載到本地 hf download "Qwen/Qwen3-4B-Instruct-2507" --local-dir "Qwen3-4B-Instruct-2507" # 轉(zhuǎn)換為 fp16 gguf 格式 python llama.cpp/convert_hf_to_gguf.py "Qwen3-4B-Instruct-2507" --outtype f16 --outfile Qwen3-4B-Instruct-2507-f16.gguf # 生成 imatrix.dat ./llama.cpp/build/bin/llama-imatrix -m Qwen3-4B-Instruct-2507-f16.gguf -f calibration.txt -ngl 99 --output-frequency 10 -o imatrix.dat --parse-special # 進(jìn)行帶校準(zhǔn)量化 ./llama.cpp/build/bin/llama-quantize --leave-output-tensor --imatrix imatrix.dat Qwen3-4B-Instruct-2507-f16.gguf Qwen3-4B-Instruct-2507-iq4_xs.gguf IQ4_XS # 無校準(zhǔn)量化 ./llama.cpp/build/bin/llama-quantize --leave-output-tensor Qwen3-4B-Instruct-2507-f16.gguf Qwen3-4B-Instruct-2507-q4_k_m.gguf Q4_K_M
GGUF 量化效果評測

評測模型在 wiki.test 數(shù)據(jù)集上的 PPL(困惑度),越低越好。

# ppl ./llama.cpp/scripts/get-wikitext-2.sh ./llama.cpp/build/bin/llama-perplexity -m Qwen3-4B-Instruct-2507-f16.gguf -f wikitext-2-raw/wiki.test.raw -ngl 99 PPL = 10.5498 +/- 0.08436 ./llama.cpp/build/bin/llama-perplexity -m Qwen3-4B-Instruct-2507-iq4_xs.gguf -f wikitext-2-raw/wiki.test.raw -ngl 99 PPL = 10.7011 +/- 0.08542 ./llama.cpp/build/bin/llama-perplexity -m Qwen3-4B-Instruct-2507-q4_k_m.gguf -f wikitext-2-raw/wiki.test.raw -ngl 99 PPL = 10.7434 +/- 0.08562

可以看到 iq4_xs 不僅體積小,效果也較好

評測模型的真實(shí)推理效果。

# 見下文,vllm 并發(fā)性能要好于 llama.cpp vllm serve ./Qwen3-4B-Instruct-2507-iq4_xs.gguf --served-model-name Qwen3-4B-Instruct-2507-iq4_xs --max-model-len 8192 --port 8080 --tokenizer Qwen3-4B-Instruct-2507 evalscope eval \  --model Qwen3-4B-Instruct-2507-iq4_xs \  --api-url http://127.0.0.1:8080/v1 \  --api-key EMPTY \  --eval-type openai_api \  --datasets math_500 ifeval iquiz \  --eval-batch-size 100 +-------------------------------+-----------+--------------------------+----------+-------+---------+---------+ | Model                         | Dataset   | Metric                   | Subset   |   Num |   Score | Cat.0   | +===============================+===========+==========================+==========+=======+=========+=========+ | Qwen3-4B-Instruct-2507-iq4_xs | ifeval    | mean_prompt_level_strict | default  |   541 |  0.8262 | default | | Qwen3-4B-Instruct-2507-iq4_xs | ifeval    | mean_inst_level_strict   | default  |   541 |  0.8851 | default | | Qwen3-4B-Instruct-2507-iq4_xs | iquiz     | mean_acc                 | OVERALL  |   120 |  0.5    | -       | | Qwen3-4B-Instruct-2507-iq4_xs | math_500  | mean_acc                 | OVERALL  |   500 |  0.758  | -       | +-------------------------------+-----------+--------------------------+----------+-------+---------+---------+

發(fā)現(xiàn):比 GPTQ 量化效果略弱,但整體削弱較小。

GGUF 量化性能評測

vllm + gguf iq4 推理。

vllm serve ./Qwen3-4B-Instruct-2507-iq4_xs.gguf --served-model-name Qwen3-4B-Instruct-2507-iq4_xs --max-model-len 8192 --port 8080 --tokenizer Qwen3-4B-Instruct-2507 evalscope perf \   --parallel 1 10 20 50 100 \   --number 10 30 50 100 200 \   --model Qwen3-4B-Instruct-2507-iq4_xs \   --url http://127.0.0.1:8080/v1/chat/completions \   --api openai \   --dataset random \   --max-tokens 1024 \   --min-tokens 1024 \   --prefix-length 0 \   --min-prompt-length 1024 \   --max-prompt-length 1024 \   --tokenizer-path Qwen3-4B-Instruct-2507/ \   --extra-args '{"ignore_eos": true}' ┏━━━━━━┳━━━━━━┳━━━━━━━━━━┳━━━━━━━━━━┳━━━━━━━━━┳━━━━━━━━━━┳━━━━━━━━━┳━━━━━━━━━━┳━━━━━━━━━┳━━━━━━━━━━┓ ┃      ┃      ┃      Avg ┃      P99 ┃    Gen. ┃      Avg ┃     P99 ┃      Avg ┃     P99 ┃   Success┃ ┃Conc. ┃  RPS ┃  Lat.(s) ┃  Lat.(s) ┃  toks/s ┃  TTFT(s) ┃ TTFT(s) ┃  TPOT(s) ┃ TPOT(s) ┃      Rate┃ ┡━━━━━━╇━━━━━━╇━━━━━━━━━━╇━━━━━━━━━━╇━━━━━━━━━╇━━━━━━━━━━╇━━━━━━━━━╇━━━━━━━━━━╇━━━━━━━━━╇━━━━━━━━━━┩ │    1 │ 0.17 │    5.884 │    5.945 │  174.02 │    0.044 │   0.087 │    0.006 │   0.006 │    100.0%│ │   10 │ 0.40 │   24.839 │   25.406 │  412.00 │    0.449 │   1.034 │    0.024 │   0.024 │    100.0%│ │   20 │ 0.66 │   25.413 │   26.805 │  677.62 │    0.658 │   1.838 │    0.024 │   0.025 │    100.0%│ │   50 │ 1.17 │   42.447 │   46.481 │ 1201.77 │    1.444 │   4.483 │    0.040 │   0.041 │    100.0%│ │  100 │ 1.20 │   72.823 │  118.206 │ 1225.47 │    8.692 │  37.972 │    0.063 │   0.106 │    100.0%│ └──────┴──────┴──────────┴──────────┴─────────┴──────────┴─────────┴──────────┴─────────┴──────────┘

llama.cpp + gguf iq4 推理。

# set max input tokens = 4096, max output tokens = 4096 ./llama.cpp/build/bin/llama-server -m Qwen3-4B-Instruct-2507-iq4_xs.gguf -c 4096 -n 4096 -ngl 99 # test curl -X POST http://127.0.0.1:8080/v1/chat/completions \   -H "Content-Type: application/json" \   -d '{     "model": "Qwen3-4B-Instruct-2507-iq4_xs",     "messages": [       {"role": "user", "content": "你好"}     ], "stream": true   }' # 注意首次執(zhí)行一會(huì)ctrl+c,進(jìn)行warmup evalscope perf \   --parallel 1 10 20 50 100 \   --number 10 30 50 100 200 \   --model Qwen3-4B-Instruct-2507-iq4_xs \   --url http://127.0.0.1:8080/v1/chat/completions \   --api openai \   --dataset random \   --max-tokens 1024 \   --min-tokens 1024 \   --prefix-length 0 \   --min-prompt-length 1024 \   --max-prompt-length 1024 \   --tokenizer-path Qwen3-4B-Instruct-2507 \   --extra-args '{"ignore_eos": true}' ┏━━━━━━┳━━━━━━┳━━━━━━━━━━┳━━━━━━━━━━┳━━━━━━━━━┳━━━━━━━━━━┳━━━━━━━━━┳━━━━━━━━━━┳━━━━━━━━━┳━━━━━━━━━━┓ ┃      ┃      ┃      Avg ┃      P99 ┃    Gen. ┃      Avg ┃     P99 ┃      Avg ┃     P99 ┃   Success┃ ┃Conc. ┃  RPS ┃  Lat.(s) ┃  Lat.(s) ┃  toks/s ┃  TTFT(s) ┃ TTFT(s) ┃  TPOT(s) ┃ TPOT(s) ┃      Rate┃ ┡━━━━━━╇━━━━━━╇━━━━━━━━━━╇━━━━━━━━━━╇━━━━━━━━━╇━━━━━━━━━━╇━━━━━━━━━╇━━━━━━━━━━╇━━━━━━━━━╇━━━━━━━━━━┩ │    1 │ 0.21 │    4.812 │    4.816 │  212.76 │    0.061 │   0.063 │    0.005 │   0.005 │    100.0%│ │   10 │ 0.20 │   41.531 │   48.982 │  209.89 │   36.711 │  44.152 │    0.005 │   0.005 │    100.0%│ │   20 │ 0.20 │   80.076 │   99.156 │  207.84 │   75.205 │  94.257 │    0.005 │   0.005 │    100.0%│ │   50 │ 0.20 │  189.758 │  251.990 │  204.79 │  184.814 │ 247.020 │    0.005 │   0.005 │    100.0%│ │  100 │ 0.20 │  378.942 │  504.018 │  204.04 │  373.980 │ 499.034 │    0.005 │   0.005 │    100.0%│ └──────┴──────┴──────────┴──────────┴─────────┴──────────┴─────────┴──────────┴─────────┴──────────┘

結(jié)論:看 OTPS 指標(biāo),llama.cpp 單用戶性能最好,但是大并發(fā)性能下,vllm+GPTQ > vllm+GGUF。

本文來源:https://ninehills.tech/articles/143.html
涉及代碼: https://github.com/ninehills/llm-speedup

特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺“網(wǎng)易號”用戶上傳并發(fā)布,本平臺僅提供信息存儲服務(wù)。

Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.

相關(guān)推薦
熱點(diǎn)推薦
法國、德國、英國、加拿大、丹麥、西班牙、意大利、荷蘭、挪威等14國發(fā)表聯(lián)合聲明

法國、德國、英國、加拿大、丹麥、西班牙、意大利、荷蘭、挪威等14國發(fā)表聯(lián)合聲明

每日經(jīng)濟(jì)新聞
2025-12-25 07:29:06
中美日11月汽車銷量對比:特斯拉49.7,豐田超90,比亞迪令人意外

中美日11月汽車銷量對比:特斯拉49.7,豐田超90,比亞迪令人意外

趣文說娛
2025-12-26 17:37:09
戰(zhàn)爭一旦爆發(fā),中國3000架飛機(jī)根本上不了場?俄專家講出了真相

戰(zhàn)爭一旦爆發(fā),中國3000架飛機(jī)根本上不了場?俄專家講出了真相

Ck的蜜糖
2025-12-26 13:26:54
達(dá)成了!西蒙斯正式收購!這可是NBA狀元秀

達(dá)成了!西蒙斯正式收購!這可是NBA狀元秀

籃球?qū)崙?zhàn)寶典
2025-12-25 22:19:36
尿是黃色!金子也是黃色!德國男子為了提煉黃金,煮了五千升尿液

尿是黃色!金子也是黃色!德國男子為了提煉黃金,煮了五千升尿液

扶蘇聊歷史
2025-12-25 16:18:51
22:00,中國男足vs伊拉克!U23亞洲杯首輪=生死戰(zhàn),底線拿5分晉級

22:00,中國男足vs伊拉克!U23亞洲杯首輪=生死戰(zhàn),底線拿5分晉級

侃球熊弟
2025-12-27 00:06:53
老舅:崔國明永遠(yuǎn)也不明白,達(dá)達(dá)花35萬巨資買下荒山的真相是什么

老舅:崔國明永遠(yuǎn)也不明白,達(dá)達(dá)花35萬巨資買下荒山的真相是什么

白公子探劇
2025-12-26 23:33:21
女子購近萬元LV運(yùn)動(dòng)鞋穿后雙腳多處破皮要求退款被拒,客服:不退,只能換

女子購近萬元LV運(yùn)動(dòng)鞋穿后雙腳多處破皮要求退款被拒,客服:不退,只能換

澎湃新聞
2025-12-25 19:26:27
烏軍收復(fù)波城180平方公里,澤連斯基將赴美與川普進(jìn)行高風(fēng)險(xiǎn)博弈

烏軍收復(fù)波城180平方公里,澤連斯基將赴美與川普進(jìn)行高風(fēng)險(xiǎn)博弈

史政先鋒
2025-12-26 19:49:56
斯諾克年終排名:吳宜澤創(chuàng)造驚喜,丁俊暉持續(xù)下滑,國棟穩(wěn)居前16

斯諾克年終排名:吳宜澤創(chuàng)造驚喜,丁俊暉持續(xù)下滑,國棟穩(wěn)居前16

郝小小看體育
2025-12-27 01:29:21
2026車市大逃殺:補(bǔ)貼花完,透支的惡果終于來了!

2026車市大逃殺:補(bǔ)貼花完,透支的惡果終于來了!

音樂時(shí)光的娛樂
2025-12-26 00:47:00
哈工大解剖200名乳腺癌死者,驚訝發(fā)現(xiàn)患乳腺癌的人,有5大特點(diǎn)

哈工大解剖200名乳腺癌死者,驚訝發(fā)現(xiàn)患乳腺癌的人,有5大特點(diǎn)

王曉愛體彩
2025-12-26 07:52:49
兵敗如山倒!普京一聲令下,俄羅斯連夜撤軍,“最大贏家”是他

兵敗如山倒!普京一聲令下,俄羅斯連夜撤軍,“最大贏家”是他

花花娛界
2025-12-25 21:02:24
他接受紀(jì)律審查和監(jiān)察調(diào)查

他接受紀(jì)律審查和監(jiān)察調(diào)查

錫望
2025-12-26 13:29:55
江蘇一學(xué)生在校墜樓后已昏迷月余 公安及教育部門介入調(diào)查

江蘇一學(xué)生在校墜樓后已昏迷月余 公安及教育部門介入調(diào)查

封面新聞
2025-12-26 19:01:04
廣州恒大給9歲萬項(xiàng)開合同!違約金1億 董路驚了:以為最多500萬

廣州恒大給9歲萬項(xiàng)開合同!違約金1億 董路驚了:以為最多500萬

念洲
2025-12-26 19:09:49
女子扇醫(yī)生后續(xù):為5分鐘行拘5天,漂亮長相已社死,曝更多正臉照

女子扇醫(yī)生后續(xù):為5分鐘行拘5天,漂亮長相已社死,曝更多正臉照

丁丁鯉史紀(jì)
2025-12-26 09:59:59
馬琳擔(dān)任總教練,肖戰(zhàn)是副總教,孫遜是男隊(duì)教練,女隊(duì)教練有懸念

馬琳擔(dān)任總教練,肖戰(zhàn)是副總教,孫遜是男隊(duì)教練,女隊(duì)教練有懸念

子水體娛
2025-12-26 23:48:13
回頭看10年前南博的龐萊臣名畫展,格外諷刺

回頭看10年前南博的龐萊臣名畫展,格外諷刺

亮見
2025-12-25 15:05:31
香港再無董建華

香港再無董建華

華人星光
2025-11-25 12:01:27
2025-12-27 03:08:49
機(jī)器學(xué)習(xí)與Python社區(qū) incentive-icons
機(jī)器學(xué)習(xí)與Python社區(qū)
機(jī)器學(xué)習(xí)算法與Python
3235文章數(shù) 11081關(guān)注度
往期回顧 全部

科技要聞

收割3000億!拼多多"土辦法"熬死所有巨頭

頭條要聞

老人婚宴上被提醒孫女非親生 做鑒定后忍3年忍不了了

頭條要聞

老人婚宴上被提醒孫女非親生 做鑒定后忍3年忍不了了

體育要聞

開翻航母之后,他決定親手造一艘航母

娛樂要聞

王傳君生病后近照變化大,面部浮腫

財(cái)經(jīng)要聞

投資巨鱷羅杰斯最新持倉:只留四種資產(chǎn)

汽車要聞

兩大CEO試駕 華為乾崑*啟境開啟首款獵裝轎跑路測

態(tài)度原創(chuàng)

房產(chǎn)
藝術(shù)
教育
數(shù)碼
公開課

房產(chǎn)要聞

炸裂,三亞360億超級清單發(fā)布,又一批重大配套要來了!

藝術(shù)要聞

你絕對想不到,佛陀微笑隱藏的秘密竟然是!

教育要聞

不公布成績排名其實(shí)也不耽誤學(xué)生知道誰是優(yōu)秀生誰是差生!

數(shù)碼要聞

盛色推出“OF24TC”23.8英寸顯示器:1080P 144Hz,499元

公開課

李玫瑾:為什么性格比能力更重要?

無障礙瀏覽 進(jìn)入關(guān)懷版