亚洲精品一区二三区在线观看_久久美_91妖精视频_成av人电影在线_久久久国产精品免费_久热亚洲

首頁 > 生活分享 > 免費教學 > DeepSeek用的GRPO占用大量內存?有人給出了些破解方法

DeepSeek用的GRPO占用大量內存?有人給出了些破解方法

發布時間:2025-02-07 19:15:56
RTX 3080 移動版能訓練哪種大模型?本文為那些 GPU 資源有限時使用 GRPO 訓練的開發者提供了寶貴的指導。
 
自 DeepSeek-R1 發布以來,群組相對策略優化(GRPO)因其有效性和易于訓練而成為大型語言模型強化學習的熱門話題。R1 論文展示了如何使用 GRPO 從遵循 LLM(DeepSeek-v3)的基本指令轉變為推理模型(DeepSeek-R1)。
 
GRPO 是一種在線學習算法(online learning algorithm),它通過使用訓練過程中由訓練模型自身生成的數據來進行迭代改進。GRPO 的目標是最大化生成補全(completions)的優勢函數(advantage),同時確保模型保持在參考策略(reference policy)附近。
 
 
本文的目的是幫你節省一些時間,讓你根據硬件預算選擇合適的模型大小。在開始微調時,你必須做出的重要決定是選擇模型大小,以及你是執行完全微調還是參數高效微調(PEFT)。
 
文章作者來自 AI 公司 Oxen.ai 的 CEO Greg Schoeninger。
 
 
原文鏈接:https://www.oxen.ai/blog/grpo-vram-requirements-for-the-gpu-poor
 
作者表示,他發現 trl 庫中已經有一個易于使用的 GRPO 實現,便立刻開始了訓練,使用的硬件是配備了 16GB 顯存的 Nvidia GeForce RTX 3080 的小型筆記本電腦。正如大家可能遇到的問題,作者發現示例代碼中的參數設置導致了一個巨大的顯存不足(OOM,out of memory )錯誤。
 
torch
.
OutOfMemoryError
:
CUDA
out
of memory
.
Tried
to allocate
1.90
 
GiB
.
GPU
0
has a total capacity of
15.73
 
GiB
of which
1.28
 
GiB
 
is
free
.
 
Including
non
-
PyTorch
memory
,
 
this
process has
14.43
 
GiB
memory
in
 
use
.
 
Of
the allocated memory
11.82
 
GiB
 
is
allocated
by
 
PyTorch
,
 
and
 
2.41
 
GiB
 
is
reserved
by
 
PyTorch
but unallocated
.
 
If
reserved but unallocated memory
is
large
try
setting PYTORCH_CUDA_ALLOC_CONF
=
expandable_segments
:
True
to avoid fragmentation
.
 
See
documentation
for
 
Memory
 
Management
 
(
https
:
//pytorch.org/docs/stable/notes/cuda.html#environment-variables)
實際使用情況
 
作者表示,他們進行了一系列實驗,以確定訓練各種大小的模型所需的顯存(VRAM)要求。參數數量從 5 億到 140 億不等,他們比較了權重的完全微調與參數高效微調(使用 LoRA),所有訓練運行都在英偉達 H100 上完成,因此這里的 OOM 意味著 >80GB 的 VRAM。
 
 
在表格中,你可以找到 GSM8K 數據集上訓練的前 100 步中的峰值內存使用情況。用于實驗的模型是:
 
 
所有實驗均使用 Shadeform 的 GPU 市場完成,因此每次實驗只需要花費幾美元 H100。
 
實驗結果表明,內存需求隨著模型大小和訓練方式的不同而顯著變化。例如,全參數微調比 PEFT 需要更多的內存。
 
為什么 GRPO 對內存需求較高
 
這要從 GRPO 的原理說起,這是它的流程圖。
 
 
GRPO 對內存需求較高的原因在于,其內部涉及多個模型,并且在訓練數據中每個查詢會產生多個輸出。上圖中的策略模型、參考模型和獎勵模型各自都是一個需要進行推理的 LLM。(盡管從技術上講,獎勵模型可能不需要參數化,可以只是一個 Python 函數或正則表達式,但不影響 GRPO 對內存的高需求。)
 
為什么 8-Bit 優化和梯度檢查點有助于減少內存占用?
 
通常來講,訓練一個大型語言模型需要在內存中存儲三種主要類型的信息:模型參數、模型學習所需的梯度、優化器的跟蹤數據。
 
對上述內容我們可以這樣理解:如果模型的參數占用了 X 的空間,那么梯度也會占用大約相同的空間。然后,像 AdamW 這樣的優化器需要更多的空間,因為它們就像一個記錄員,跟蹤最近的更新歷史,以便更好地決定未來的優化。
 
為了減輕這種內存負擔,通常采用兩種技術:
 
首先,可以使用像 AdamW 這樣的 8-bit 優化器版本,它們能更高效地存儲跟蹤數據,同時仍保持良好的性能 —— 類似于壓縮照片可以節省空間,同時保留大部分圖像質量;
其次,使用梯度檢查點技術,這就像在訓練過程中拍攝快照,而不是記錄所有內容。雖然這會使訓練速度減慢約 20-30%,但它顯著減少了內存使用。
結合這些技術,即使對 GPU 資源有限的人來說,也能夠訓練更大的模型。
 
代碼示例
 
像 trl 這樣的庫已經開始支持 GRPO,使得微調由 transformers 構成的 LLM 變得非常簡單。代碼也非常簡潔,只需將訓練器替換為 GRPOTrainer 并定義一些獎勵即可。GRPO 的最小代碼量大約只有 99 行,如果你使用的是像 meta-llama/Llama-3.2-1B-Instruct 這樣的小型模型和像 openai/GSM8K 這樣的數據集,可以非常快速地啟動。

免費教學更多>>

深藍汽車錨定全球賽道:3nm芯片破局智駕 新央企賦能劍指38萬輛海外雄心 中國長安首款全球經典產品 第四代逸動下線 365天涅槃重生,東風日產N7“小勝”背后的大變化 理想i8撞飛乘龍8噸重卡 乘龍重卡表示:一眼假 全新小鵬P7發布“星暮紫”配色 8月6日正式亮相 華為乾崑ADS+800V,奧迪Q6L e-tron來襲,預售35.3萬起有戲嗎? 新增霞紫月白雙拼色/標配豐富功能 新款GL8陸尊PHEV官圖 百萬銀河探釣川渝藏,星耀8以2.7L油耗解碼“全能務實”基因 索尼起訴騰訊:授權被拒后,新作《荒野起源》直接“照搬克隆” 小米馳援華北強降雨災情 捐贈500萬現金及35萬應急物資 理想汽車捐贈1000萬元馳援華北強降雨災區 中國長安汽車集團在渝掛牌成立 注冊資本200億 僅次于一汽 奇瑞星途星紀元E05官圖曝光 新車將搭載地平線HSD及征程6P方案 問界M9實現行業首例衛星救援!華為李小龍力證P70系列保命硬實力 關于續航、充電速度、價格 問界M8純電版更多信息公開 Open AI正為AI硬件招兵買馬,明確打造“下一代全球最具創新移動設備” 三星Galaxy S26系列旗艦手機被曝將取消標準/Plus版本 仰望U8L鼎世版螢石白涂裝實車曝光 7月31日正式預售 李想:去年MEGA遭遇汽車史上最大抹黑事件 但我們沒任何抱怨 李想談i8安全性:安全電源冗余設計 保證車門把手不斷電正常彈出 火山引擎相關負責人:網傳“豆包汽車”純屬謠言,并沒有智駕業務計劃 特斯拉中國本周新車上險量破萬同比增長7.6%,Model Y L與廉價車型未來有望進一步提振銷量 復興號智能動車組“變臉”爆火 白燈變紅燈是什么意思 百度向華北災區提供重建家園1000萬專項基金 摩根大通:蘋果首款折疊iPhone明年9月發布 售價1999美元 微信也沒想到 小藍包會被玩成這個樣子吧 一個月內四名AI大將被Meta挖走,蘋果漲薪應對 蘋果macOS 15.6正式發布 連續10周新勢力品牌Top1:鴻蒙智行7月21日-27日銷量12383臺 美團馳援3萬件救災物資 已陸續送達北京強降雨受災地區
主站蜘蛛池模板: 91精品国产综合久久福利 | 欧美视频在线免费 | 欧美欲妇激情视频在线 | 久草在线观看首页 | 亚洲天堂网2018 | 中文字幕一区二区三区四区五区 | 性色网站 | 大香萑75久久精品免费 | 亚洲三级国产 | 中文字幕亚洲综合久久2 | 久久精品91久久久久久再现 | 亚洲精品国精品久久99热 | 国产做国产爱免费视频 | 中文字幕一区二区三区四区 | 欧美三级在线播放 | 国产传媒网址 | 亚洲国产日韩在线观频 | 仇爱电视剧泰剧在线观看免费播放 | 国产乱码精品一区二区三区中文 | 91看片淫黄大片欧美看国产片 | 婷婷久久综合网 | 天天操妹子 | 99在线播放视频 | 国产精品亚洲精品不卡 | 猛草视频 | 操美女在线 | 亚洲国产精品a一区 | 日韩 欧美 中文 | 日韩专区中文字幕 | 国内精品免费一区二区观看 | 亚洲高清中文字幕一区二区三区 | 日本不卡在线观看免费v | 色婷亚洲| 色婷婷基地 | 色天天天天综合男人的天堂 | 国产 高清 在线 | 久久成人福利 | 嫩草视频在线播放 | 日本高清一区二区三区不卡免费 | 久久国产乱子伦精品免 | 国产人成精品综合欧美成人 |