(4秒快速入门)黄色网站网址入口电脑版v226.79.86.42.289.1.38-2265安卓网

k1体育麻将胡了

黄色网站网址入口 最近更新|更新列表|字母检索|下载排行|苹果专区|分类导航

目今位置:首页电脑软件网友评选21世纪最伟大的游戏 → 黄色网站网址入口 v5.41 安卓免費版

黄色网站网址入口

黄色网站网址入口

  • 电脑版下载
猜你喜欢
标签: 黄色网站网址入口 青草草视频456在线观看
详情
先容
猜你喜欢
相关版本

黄色网站网址入口截图Q8X2R7L1T4J5M9B6W3

  • 黄色网站网址入口 v139.0.7258.143 绿色版 0
  • 黄色网站网址入口 v139.0.7258.143 绿色版 1
  • 黄色网站网址入口 v139.0.7258.143 绿色版 2
  • 黄色网站网址入口 v139.0.7258.143 绿色版 3

内容详情

黄色网站网址入口

受 Kimi K2 团队启发,SGLang RL 团队乐成落地了 INT4 量化感知训练(QAT) 流程计划。通过 “训练端伪量化 + 推理端真实量化(W4A16)” 的计划组合,我们实现了媲美 BF16 全精度训练的稳固性与训推一致性,同时 INT4 极致压缩也将 1TB 级超大模子的采样使命容纳于单机 H200 (141G) 显存内,消除了跨机通讯瓶颈,显著提高了 Rollout 效率,为社区提供了兼顾高性能与低本钱的开源参考。

近期,SGLang RL 团队在强化学习的训练稳固性,训练效率与适用场景方面取得了主要希望,详细包括:

Unified multi-turn VLM/LLM 多轮采样范式:我们提供了 VLM 多轮采样范式的实现blog,开发者只需编写一套定制化的 rollout 函数,即可像训练 LLM 一样,轻松开启 VLM 的多轮强化学习。稳固性提升:我们实现了Rollout Router Replay机制,显著提升了 MoE 模子在 RL 训练历程中的稳固性。低精度训练:我们在 RL 场景中乐成实现了全流程 FP8 训练与采样,进一步释放了硬件性能。投契采样:我们在 RL 场景中乐成实践了投契采样,实现了大规模训练的无损加速。

在此基础上,我们更进一步,在 slime 框架上乐成复现并落地了INT4 量化感知训练(QAT)全流程计划。该计划深受 Kimi 团队 K2-Thinking 手艺报告中关于W4A16 QAT (Quantization-Aware Training)实践的启发。为了致敬先行者并回馈社区,本文将详细剖析我们在开源生态中买通全流程的手艺细节,旨在为社区提供一份兼顾稳固性与性能的可落地参考。

焦点收益概览:

突破显存瓶颈:通过权重压缩与低比特量化,使 1TB 级别的 K2 类模子能缩容至单机 H200 (141G) 显存内,阻止了跨机通讯瓶颈。训推一致:训练端使用 QAT 确保权重切合 INT4 漫衍,推理端执行 W4A16 (Weights INT4, activations BF16 ) 盘算 ;二者均通过 BF16 Tensor Core 举行运算,实现了媲美 BF16 全精度的训推一致性。单机效率倍增:在超大模子场景下,INT4 战略大幅降低了显存与带宽压力,Rollout 效率显著逾越 W8A8 (Weights FP8 , Activations FP8)。

本项目由 SGLang RL 团队、 InfiXAI 团队、蚂蚁集团 Asystem & 阿福 Infra 团队, slime 团队与 RadixArk Miles 团队联合完成。相关功效与 recipe 已经同步到了slime与Miles社区,接待各人试用与孝顺。我们也在更进一步向 MXFP8 与 NVFP4 提倡挑战。同时,由衷谢谢Verda Cloud为本事情提供的盘算资源。

1. 手艺计划概览

1.1 总体流程

我们实现了从训练到推理的完整 QAT INT4 闭环的计划,如下图所示:

图1 QAT INT4 全流程

在QAT 训练阶段,训练侧在维护 BF16 主权重(Master Weights)的基础上,前向撒播通过伪量化(Fake Quantization)引入量化噪声。所谓 “伪”,是指该办法并未真正将 BF16 数据类型转换为低精度的 INT4,而是坚持浮点盘算路径稳固,通过插入量化再反量化(Quant-Dequant)操作来模拟低精度的盘算。

详细而言,高精度权重在经由 “离散化映射到 INT4” 后被连忙还原,虽然其物理存储名堂仍为浮点,但数值精度已实质性降低。这种原值与还原值之间的差别引入了量化误差,在数学上等效于向网络注入了噪声,迫使模子在训练阶段就通过梯度更新去顺应这种精度损失。

反向撒播则使用STE (Straight-Through Estimator)手艺跳过了量化算子的不可导特征。量化历程的焦点操作是 “取整(Rounding)”,其数学形态为蹊径函数,导数在险些所有位置均为 0。这意味着在标准反向撒播历程中,梯度信号传导至此处会因“梯度消逝”而彻底中止,导致底层的主权重无法获得更新。

对此,STE 接纳了 “梯度透传” 战略:在反向撒播盘算时,将取整函数的导数界说为 1(即视为恒等映射)。这一机制相当于在不可导的 “断崖” 上架设了一座桥梁,让梯度能够越过取整层,有用回传至高精度的浮点权重,确保 QAT 训练链路的闭环。

在权重转换阶段,我们将训练收敛的 BF16 权重导出并执行真实量化(Real Quantization),将其转换为推理引擎适配的 INT4 名堂(如 Marlin)。

进入RL Rollout阶段,由 SGLang 加载 INT4 Weights 并执行高效的 W4A16(INT4 权重 x BF16 激活)推理,天生的履历数据(Experience)将回流至第一阶段用于下一轮 RL 训练,从而组成一个自洽的迭代闭环。

1.2 焦点战略选择

在量化名堂上,我们参考Kimi-K2-Thinking选用了INT4 (W4A16)计划。这主要思量到相比 FP4,INT4 在现有硬件(Pre-Blackwell 架构)上的支持越发普遍,并且业界已有成熟高效的 Marlin Kernel 实现。实验批注,在 1×32 量化 Scale 粒度下,INT4 动态规模富足、精度稳固,其性能与生态链路均已高度优化。作为工业界 “足够好(Good Enough)” 的量化标准,INT4 在性能、危害与维护本钱间实现理性平衡。虽然,我们后续也妄想在 NVIDIA Blackwell 系列硬件上进一步睁开 FP4 RL 的探索。

在训练要领方面,我们接纳了Fake Quantization 配合 STE的经典组合。通过维护 BF16 主权重,在前向盘算中模拟量化噪声,并在反向撒播时直通梯度,这种方法最洪流平地包管了低精度训练的收敛性与稳固性。

2. 训练侧:Megatron-LM 的伪量化刷新

2.1 Fake Quantization 与 STE 实现

图2

这一阶段的焦点目的是在训练历程中实时模拟量化误差,迫使模子 “学会” 顺应低精度体现。为此,我们接纳了Fake Quantization机制:只管权重在存储和更新时仍坚持高精度的 BF16 名堂,但在前向撒播的现实盘算中,会被暂时映射到 INT4 的精度规模加入运算。

详细实现上,我们在 megatron/core/extensions/transformer_engine.py 中的 _FakeInt4QuantizationSTE 类构建了焦点逻辑 ;诜肿樽畲缶灾稻傩卸炕―ynamic Quantization),模拟 INT4 的 [-7, 7] 数值规模及截断操作,但在盘算时仍使用 BF16 类型,仅引入量化误差。

而在要害的反向撒播环节,我们引入了STE机制,确保梯度能够直接穿透量化层,不经修改地回传以更新主权重,从而包管训练的一连性。

2.2 Fake Quantization 比照实验

为了验证 QAT 计划的须要性,并探讨训练与推理精度不匹配带来的详细影响,我们设计了一组消融实验,划分在 “开启 QAT INT4 训练,BF16 Rollout” 和 “关闭 QAT 训练,直接举行 INT4 Rollout” 两种非对称场景下举行了测试,并以对数概率绝对差值(Logprob Abs Diff)作为训推纷歧致的视察指标。

图3 Rollout 侧 BF16,训练侧比照 QAT INT4 效果

图3展示了 “开启 QAT INT4 训练,BF16 Rollout” 的场景(即红线部分)。可以看到,纵然我们使用了高精度的 BF16 举行推理,误差依然显著偏高。这是由于在 QAT 历程中,模子权重已经针对 INT4 的量化噪声举行了 “顺应性调解” 或赔偿 ;推理时若移除量化办法,这种赔偿反而成为扰动,导致特征漫衍偏移(Distribution Shift)。

图4 Rollout 侧 INT4 Weight Only,训练侧比照 QAT INT4 效果

图4则展示了 “关闭 QAT 训练,直接举行 INT4 Rollout” 的场景(即红线部分)。这对应了古板的训练后量化(PTQ)模式。由于模子在训练阶段从未接触过量化噪声,直接将权重压缩至 INT4 不但造成信息的强烈丧失,更导致推理时的特征漫衍与训练时爆发偏移,致使误差随着训练步数泛起震荡上升的趋势。

结论:实验有力地证实,训练端的 Fake Quantization 与推理端的 Real Quantization 必需协同开启。只有当训练时的模拟噪声与推理时的真实量化精度严酷对齐,才华有用抑制训推纷歧致,阻止漫衍偏移,将误差控制在靠近基线的水平,从而真正买通低精度 RL 训练的全流程。

3. 权重更新阶段

3.1 权重流转与动态名堂适配

图5

为了复用 SGLang 在推理端已有的优化,我们直接接纳了其内置的Marlin INT4作为 INT4 的推理计划。然而,这在工程落地时我们遇到了显著的 “名堂鸿沟”:QAT 训练产出的是类似 Hugging face 上的标准名堂权重,而 SGLang 推理引擎的 Marlin Kernel 则强制要求权重必需经由特定的打包(Pack)与重排(Permute)处置惩罚,方能被 Kernel 高效读取。

面临 RL 训练中频仍的权重更新需求,首先需要解决名堂兼容性问题。为此,我们设计了一套逆向的 `restore_weights_before_loading` ;せ。该机制使用缓存的 `_original_shapes` 元数据,能够在权重更新行动爆发前,强制将目今内存中的 Marlin 权重名堂还原(Resize)回原始形状。这一设计有用避免了因维度不匹配导致的运行时过失,确保模子能够在标准权重名堂与 Marlin 权重名堂之间平滑切换。别的,我们还在系统层面新增了 `post_process_weights` API,允许控制平面凭证训练节奏显式触发这一流程。

而针对权重加载完成后的名堂适配挑战,我们在 `compressed_tensors_moe.py` 中实现了一套动态权重治理机制。在模子权重加载竣事阶段,系统会自动触发 `process_weights_after_loading` 流程,底层挪用 `gptq_marlin_moe_repack` 与 `marlin_moe_permute_scales` 等算子,在内存中即时将标准权重转换为高度优化的 Marlin 权重名堂,从而最大化推理时的访存与盘算效率。

3.2 权重更新时的量化

图6

进入焦点的Real Quantization环节。差别于训练时的 Fake Quantization,这一步通过代码中的 `int4_block_quantize` 函数执行不可逆的精度压缩操作:基于设定的 Group Size,盘算每组权重的缩放因子(Scale),并将高精度浮点数映射到 `[-7, 7]` 的 INT4 整数域。

为了最大化显存使用率,接着执行位宽打包(Packing)操作。由于 PyTorch 缺乏原生的 INT4 数据类型,我们通过 `pack_int4_to_int32` 函数使用位运算技巧,将 8 个 INT4 数值紧凑地 “压缩” 进 1 个 INT32 整数中(即 `8 × 4 bits = 32 bits`)。最终,这些经由压缩的 Packed Weights 连同 Scale 因子被传输至推理引擎,完成了从 “训练名堂” 到 “推理名堂” 的转换。

4. 推理阶段

图7

极简打包与零开销解包

在 RL 训练的 Rollout 阶段,我们直接复用了 SGLang 优化成熟的 W4A16 量化计划。SGLang 使用紧凑的 INT4 名堂,将两个 4-bit 权重打包进一个字节,相比 BF16 节约了 75% 的内存。在推理时,Triton kernel 通过高效的位移和掩码操作(>> 4 和 & 0xF)快速解包,得益于盘算与 IO 的并行笼罩,该历程险些实现了零特殊延迟。

MoE 算子深度融合

显存优化:SGLang 引入动态的 moe_align_block_size,凭证目今 Token 数目和 Expert 漫衍自动选择 block_size ,将统一 Expert 的 Token 群集并对齐,提升显存带宽使用率。盘算融合:SGLang 引擎除集成磷七效的Marlin INT4实现、还将 gating 部分 fuse 成一个高性能的 kernel,阻止了重复启动 kernel 和读写中心效果。同时,该 INT4 推理计划兼容 GPTQ 和 AWQ 等主流量化名堂,以及支持对称与非对称两种模式。

5. INT4 QAT RL 效果

5.1 训练效果

训练侧

图8 Qwen3-235B-A22B Raw-Reward比照

图9 Kimi-K2-Thinking Raw-Reward比照

上图展示了基于 slime 框架,Qwen3-235B-A22B 与 Kimi-K2-Thinking 模子在 dapo-math-17k 数据集上的训练体现。通过比照实验发明,相较于 “BF16 训 - BF16 推” 及 “BF16 训 - FP8 推”,“BF16 训 - INT4 推” 设置下的 Raw-Reward 仍能坚持稳健增添,且其增添趋势与前两者基本一致,证实晰该计划在训练历程中的有用性。

评估侧

图10 Qwen3-235B-A22B AIME数据集评估比照

图11 Kimi-K2-Thinking AIME数据集评估比照

为了越发严谨地评估模子能力的演进,我们每隔 10 个训练步长就在 aime-2024 基准测试集上举行一次评估。上图给出了 Qwen3-235B-A22B 与 Kimi-K2-Thinking 在差别 RL 训练设置下的模子评分增添轨迹。

实验批注:“BF16 训 - INT4 推” 计划不但在评估分数上泛起出稳健的上升态势,且其性能提升的斜率与最终抵达的峰值,均与 “BF16 训 - BF16 推” 和 “BF16 训 - FP8 推” 计划坚持了较高的重合度。这种高度的一致性有力地证实晰模子在经由低比特量化后,其焦点体现能力并未受损,包管了在大幅降低盘算开销的同时,依然能够实现与全精度推理相媲美甚至完全看齐的泛化体现。

5.2 训推差别

图12

图13

为了直观评估计划效果,我们在 Qwen3-30B 与 Qwen3-235B 模子上举行了的 QAT RL 训练验证。图中 Y 轴反应了训练侧与推理侧输出的 Logprob 绝对差值,数值越低意味一致性越强。实验效果显示,INT4(绿色虚线)与 BF16 基准(红色实线)泛起出惊人的重合度,且显著低于体现出较高误差水平的 FP8(蓝色虚线)。这证实了 INT4 QAT 战略能有用规避 “BF16 训 - FP8 推” 模式下的精度损失,实现与全精度无异的训推体现。

这种一致性背后的缘故原由我们推测为两点:

截断误差抑制:训练侧的 Fake Quantization 将权重限制在 INT4 值域内。这种数值规模的约束,有用降低了矩阵乘法中 Accumulator 累加时因并行盘算顺序不确定性引发的浮点舍入误差(Floating-point Rounding Error),即改善了所谓的“大数加小数”精度丧失问题。高精度盘算:推理侧接纳 W4A16 模式,其焦点盘算全程基于BF16 Tensor Core举行,确保了运算精度与训练阶段的高度对齐。

5.3 Rollout 加速

图14 Qwen3-235B-A22B Rollout 性能比照

从 Qwen3-235B 的 Rollout 性能比照图中可以直寓目到,虽然 INT4(绿色点划线)与 FP8(蓝色虚线)均较 BF16 基线(红色实线)实现了显著加速,但两者相互之间并未拉开重大的性能鸿沟。这一征象主要受限于目今的硬件特征:由于 NVIDIA H 系列 GPU 没有原生的 INT4 Tensor Core, W4A16 计划实质上使用的照旧 BF16 Tensor Core 举行盘算,虽然大幅降低了显存带宽压力,但在吞吐上无法像 W8A8 一样使用原生 FP8 Tensor Core 举行加速从而获得盘算增益。因此,在单步推理耗时上,INT4 仅体现出微弱的优势,与 FP8 基本处于统一性能梯队。

图15 Kimi-K2-Thinking Rollout 性能比照

关于 Kimi-K2-Thinking Rollout 性能的比照。首先视察双节点场景下的通讯瓶颈:图中 FP8(红线)与 INT4(蓝线)泛起出相似的水平。由于 H 系列 GPU 缺乏原生的 INT4 盘算单位,INT4 无法在盘算层面提供加速,因此整体性能依然受限于跨节点的通讯带宽。

然而,绿线所代表的单节点体现展现了 INT4 的真正价值 —— 显存压缩。通过将模子体积减半,我们乐成将 1TB 级别的超大模子完整加载至单机显存中。这直接消除了腾贵的跨机通讯开销,将 Rollout 耗时大幅缩减。这有力地证实,在目今硬件情形下,INT4 QAT 的焦点收益在于通过压缩显存,解锁了高效的单机安排 Rollout 计划。

6. 总结与未来事情

slime 的这项事情不但证实晰在开源生态中复现工业界前沿计划的可行性,也为超大规模模子的低本钱训练探索了新的路径。我们期望这套计划助力更多开发者深入明确 QAT 手艺,并推动其在 RL 场景下的现实落地与普遍应用。

通过在开源框架上的复现,我们验证了 Kimi 团队所提出的 INT4 QAT 计划的有用性:

精度复现:在 slime 的复现实验中,我们同样视察到了 INT4 QAT 的精度优势,实现了与 BF16 基线一致的效果。效率提升:RL Rollout 阶段的吞吐提升显著,验证了低比特量化在 RL 场景下的重大价值。

未来事情:

训练端效率优化:现在,由于在训练历程中引入了 QAT Fake Quantization 盘算,带来了较大的特殊性能开销,导致逊з度显着低于 BF16 模式。这在一定水平上折损了 Rollout 阶段带来的端到端性能收益。我们后续妄想提出一套全新的优化计划,旨在解决这一训练侧的效率瓶颈,实现全链路的加速。推理侧 FP4:随着 NVIDIA Blackwell 架构的逐步普及,我们将起劲探索 FP4 精度在 RL 训练与推理中的应用可行性,以期进一步挖掘硬件潜力。

slime 在 QAT INT4 的实验不但证实晰在开源生态中复现工业界前沿计划的可行性,也为超大规模模子的低本钱训练探索了新的路径。我们期望这套计划助力更多开发者深入明确 QAT 手艺,并推动其在 RL 场景下的现实落地与普遍应用。

致谢

SGLang RL Team: Ji Li, Yefei Chen, Xi Chen, BBuf

InfiXAI Team: Mingfa Feng, Congkai Xie, Shuo Cai

蚂蚁集团 Asystem & 阿福 Infra 团队:Yanan Gao, Zhiling Ye, Yuan Wang, Xingliang Shi

RadixArk Miles Team: Chenyang Zhao, Yueming Yuan, Jiajun Li, Yusheng Su, Mao Cheng, Tom, Banghua Zhu

slime Team: Zilin Zhu, Chengxing Xie, Lei Li, Haisha Zhao

相关版本

    多平台下载

    • PC版

      黄色网站网址入口 v8.241.7341.933086 最新版

    • Android版

      黄色网站网址入口 v3.421.4431 最新版

    审查所有0条谈论>网友谈论

    揭晓谈论

    (您的谈论需要经由审核才华显示) 网友粉丝QQ群号:766969941

    审查所有0条谈论>>

    相关软件
    欧美性A片免费观看 黄色激情综合网 一道本无码在线观看 99tv精品在线 国产精品精品guochan 芥敦r18尾巴车 ▆▆▆▉用英文怎么读 narutoXXXXX无尽小樱 激 情 小 说 亚 洲 色 图 亚洲色情a∨久久久噜噜噜 国产男人添女人p免费视频 女明星的性爱视频 双人剧烈摇床运动视频免费观看 吴签 上海少妇瑜伽被黑人 日韩三级电影在线看 自拍偷拍激情网 日韩小黄片,欧美小黄片 国产精品一级AA片 激情婷婷丁香开心久久综合 亚洲黄色网在线 国产女人喷水视频 亚洲线精品一区二区三区在线观看 97超碰人人操人人操人人操 男🍌❌女🍑摸🐻水流在线看真免费安装包下载-男🍌❌女... 欧美迷奸视频 国产亚洲精品偷自第三页 巨茎爆乳 黄色a片啪啪成年人论理网站 啊啊啊啊啊好大轻点 一亲二膜三叉四膜五注射应用 野花av 免费观看国产免在线视频 欧洲吃奶摸下AA片久久 日韩A片无码毛片免费看九九九 神里绫华被 娇喘流白色液体 伊人久久大香线蕉 赵雅芝打开双腿呻吟 色拍拍综合网 美女视频黄8频a美女大全免费 男女交配免费视频 日本人哺乳 中国黄色字幕精品在线视频播放 永久观看黄色视频的网站 国产一品二品三品色网站免费 欧美一区二区在线免费观看 摸进灰原哀裤衩 ⅹxXCOm 亚洲一区二区三区中文字幕 一级a在线看片 91www视频在线观看 原神 大车网站 黄片大视频 亚洲欧美日本色图 色色色天天 朵利亚张开双腿被强❌ 国产自偷一区二区三区 微博调教 中国语男女黄色龟情视频 av你懂的在线 ⛅️乐发app旧版下载下载手机版 欧美3p 视频 91情趣视频 成年免费大片黄在线观看com 2022国产精品福利小视频 黄片在线免费av 黄色视频管方网站 韩漫被 到爽 流漫画 亚洲毛毛片亚洲毛 91华人社区 国产精品久久久久国产精品电影 又大又长又粗又硬又爽又舒服 男女裸体性婬乱视频播放网站 国产一级永久 激情文学亚洲色图 妓女视频网站妓女影库 免费无码黄色网站 亚洲一区二区三区自拍天堂下载 人人操人人中出人人网 黑粗硬大欧美肥胖女人性爱 日韩精品综合一本久道在线视频 国产又大又粗又黄精品视频 欧美一级裸体视频,免费看 最新能看的黄色网站 欧美大荫道大屁股XXXⅩ图片 日韩 码波多野结衣刘亦菲 中国一级av无码毛片不卡 免费在线看国产网站视频 玩弄银龙王粉嫩的小奶头 熟女漏逼 jizz大香交 一级全黄A片在线看 欧洲熟妇色 十大免费黄色网站 好爽好湿好硬好大免费视频能播放 人人操人人灰 比基尼美女看A片啪啪 小马拉大车大姐姐 国产黄色视频免费看日韩黄色视频免费看 800av视频 怡红院成永久免费人视频台湾 初高中生黄福利网站 91     蘑菇 97日韩人人干人人搞 国产亚洲另类国产综合 av国内精品 欧美三级高清视频 叶山小百合大战女婿叫什么电视剧 色一情一乱一伦一免费看 6969啪国产精品视频 欧美大屌性爱视频 无码av高清片 人人摸人人操人人干人人艹 wwwwwwwww日本 女女互摸喷水娇喘les指交 黄色片日韩一区 美女光的网站的入 日本动漫美女光屁股光阴 国产精品视频九一 被插爽视频
    热门网络工具
    网站地图