欧美xxxx做熟欧美不卡,专为热爱品质生活的你打造,每一次点击都是新的惊喜

k1体育麻将胡了

搜索 猫眼影戏 融媒体矩阵
  • 山东手机报

  • 猫眼影戏

  • 公共网官方微信

  • 公共网官方微博

  • 抖音

  • 人民号

  • 天下党媒平台

  • 央视频

  • 百家号

  • 快手

  • 头条号

  • 哔哩哔哩

首页 >新闻 >社会新闻

字节Seed:大看法模子来了,推理的何须是下一个token

2026-01-08 22:10:15
泉源:

猫眼影戏

作者:

黄沐妍

手机审查

  猫眼影戏记者 王力德 报道Q8X2R7L1T4J5M9B6W3

henry 发自 凹非寺量子位 | 公众号 QbitAI

LLM的下一个推理单位,何须是Token?

刚刚,字节Seed团队宣布最新研究——

DLCM(Dynamic Large Concept Models)将大模子的推理单位从token(词) 动态且自顺应地推到了concept(看法)层级。

DLCM通过端到端地方法学习语义界线,动态地将Token序列支解成看法,在压缩后的看法空间中举行深度推理,并借助因果交织注重力将看法级推理效果重构为Token级展望

由此,古板LLM中基于匀称、冗余Token信息密度的盘算分派,被转化为面向看法的动态推理与自顺应算力分派。

在以推理为主的基准使命上,DLCM在将推理阶段FLOPs降低34%的同时,还将平均准确率提升了2.69%

这也意味着,大模子的推理效率并不必定依赖更麋集的Token级盘算,而可以通过更高层级的语义组织来获得。

接下来,我们详细来看。

分层的下一token展望框架

如上所说,DLCM的焦点在于学习动态的Token-看法映射,实现了盘算资源的自顺应分派。

之以是这样做主要有两方面缘故原由:

一方面,在自然语言中,信息的漫衍并不是匀称的,而是集中在集中在少数语义转换的节点上。

然而,在目今的LLM中,所有token被统一处置惩罚,信息密度不匀称的自然语言消耗了同样的盘算量,造成了大宗的冗余与模子容量的错配。

另一方面,此前基于潜在推理的框架,如大型看法模子(Large Concept Model, LCM)等,不但需要单独训练编码器息争码器,还依赖人为划分的牢靠的、句子级别的粒度,缺乏拓展性与自顺应性。

针对这些问题,DLCM通过一种分层的下一token展望框架,将盘算重心转移到压缩后的语义空间,实现了更高效的深度推理。

详细来说,这一框架包括四个阶段:

首先,在编码阶段,DLCM通过一个编码器,提取细粒度的Token级体现,捕获局部上下文信息,作为界线检测和最终Token级解码的基础。

接下来,在动态支解阶段,模子基于Token级体现,盘算相邻Token之间在潜在空间中的局部不相似性(使用余弦距离),当不相似度凌驾阈值时,模子判断为一个语义断点(看法界线)。

与牢靠句子长度差别,DLCM端到端地学习这些界线,实现内容自顺应的支解。

它将统一片断内(即统一看法内)的所有Token体现举行均值池化(Mean Pooling),然后投影到更高维度的看法维度上,最终形成一个长度大大压缩的看法序列 。

然后,在看法级推理阶段,模子将上面获得的看法序列在压缩空间中举行深度的、高容量的推理,获得经由深度推理和信息整合后的看法体现。

最后,在Token级解码阶段,DLCM使用经由推理的看法体现,重构并展望下一个token。

由此,DLCM通过以上四个办法,乐成地将盘算分派从低效的Token-Token交互,转移到高效的Token-看法-Token 交互,实现了盘算资源的自顺应、结构化使用。

要害手艺突破与优化

虽然DLCM架构在设计上实现了Token级和看法级?榈囊旃,但同时也引入了新的工程和训练挑战。

全局剖析器(Global Parser):内容自顺应压缩

DLCM 的焦点优势在于它能够凭证信息密度动态地划分看法。

例如,关于信息冗余度高的代码或简朴文本,可以激进地压缩;关于语义重大的转折点,则坚持较低压缩比。

为实现这一点,研究引入了全局剖析器(Global Parser)和辅助损失函数。

这个机制的要害在于:它不要求单个序列严酷遵照目的压缩比 ,而是在整个Batch层面约束平均界线天生率。

这使得DLCM在共享全局压缩比例目的的条件下,实现了随领域转变、随内容波动的自顺应分段,从而将盘算资源精准地分派到语义最要害的区域。

针对Flash Attention的效率优化

在解码阶段,Token需要通过因果交织注重力关注其所属的看法。

由于每个看法包括的Token数目是转变的,若是直接实现,会严重依赖效率低下的动态掩码和不规则的内存会见。

针对这一问题,研究引入看法复制(Concept Replication)战略。它将看法特征沿着序列维度复制扩展,使其长度与原始Token序列对齐。

由此,研究将重大的可变长交织注重力问题转换为长度对齐、局部恒定的注重力问题,并使其能够使用高度优化的Flash Attention Varlen内核,获得了1.26倍到1.73倍的显著加速。

异构架构的稳固训练

由于DLCM 的Token级组件和看法级主干网络的宽度纷歧致,通过上投影毗连,无法共享简单有用学习率。

为解决这一问题,研究接纳解耦的最大更新参数化,为Token?楹涂捶?榉峙闪俗粤Φ目矶人醴乓蜃,并发明各组件的有用学习率应与其宽度的倒数成比例缩放。

由此,研究乐成地稳固了这种不等宽架构的训练,并实现了零样本超参数迁徙,即小型署理模子上找到的最佳学习率可以直接用于训练更大的DLCM模子。

量化最优分派点

除上述优化外,研究还进一步基于scaling law探讨了token级处置惩罚与看法级推理之间的最优分派。

研究发明,在牢靠压缩比下,架构效率在中等看法主干占比处抵达峰值,而非随看法容量枯燥提升。

更主要的是,这一最优设置在规模增大时优势愈发明显:随着基线模子变大,在性能对齐的条件下,DLCM可实现越来越显著的FLOPs节约。

在实验阶段,研究接纳了与LLaMA论文中报告的相同的全局批次巨细、学习率和序列长度,让每个模子都在1T Token上举行训练。

其中,DLCM实现了43.92%的平均准确率,凌驾了基线模子41.23%的分数,提升了2.69%。

One more thing

这篇论文的一作来自英国曼彻斯特大学的在读博士生Qu Xingwei,师从Chenghua Lin教授。

他的研究偏向聚焦于大语言模子(LLMs),主要包括预训练、微调、专家混淆(Mixture of Experts)以及System-2大语言模子。

在教育配景方面,他本科结业于北京航空航天大学,导师为段海滨教授;硕士就读于获慕尼黑工业大学,导师为Daniel Cremers教授。

在读博前,他曾在字节跳动和小鹏汽车担当研究工程师。

[1]https://x.com/GeZhang86038849

[2]https://arxiv.org/abs/2512.24617

??时势1:www.色哟哟在线免费视频

??01月08日,中新健康周报|2024年国家医保谈判已启动 162个药品参与,

  清静下来后,小不点一小我私家坐在湖边,抱着双膝,再次最先发呆,大眼望着碧蓝的湖水,很长时间都没有动一下。

,美女猛舔大鸡巴。

??01月08日,截至今日12时 新疆已记录到56次3级及以上余震,

  今天国旗下讲话的主题是:敬重森林,人人有责!约莫在30亿年前,地球上就已经泛起了植物。以是说,树着实是早于人类降生于这个天下的。

,日本中文字幕在线视频,玖辛奈淫穴被挺进去,农村玌伦小说。

??时势2:20岁禁止入内1000步

??01月08日,巴基斯坦与伊朗采取行动缓和双边紧张局势,

  这头宝驹引颈长嘶,声音嘹亮,如大钟石磐,直上云霄,可谓精壮神骏,很是轶群!

,野外一级A片XXXX,打雷擦打狙,欧美精品一区二区福利视频一区。

??01月08日,国务院办公厅印发《关于加快完善生育支持政策体系推动建设生育友好型社会的若干措施》,

  这还不算完,族人又抽出几条筋,放入鼎中,且从宝骨中取出不少淡金色的神髓,也放入了玄色鼎中,让大药越发的璀璨了,香气馥郁。

,黄色日韩福利网站,一级BBB黄色大片,人人噪人人干人人爽人人。

??时势3:www.saoporen.com

??01月08日,国家邮政局:从严从紧、从细从实抓好枪爆物品禁寄管理,

  “呜呜,我恨啊……”老人回光返照,说完这些,马上就不可了,最后脸上挂着泪水,混着血淌下,便一动不动了。

,97超碰刺激国产受不了,人妻视频一区二区三区免费,一级视频美女。

??01月08日,赖清德就任后两岸和平统一可能性已经丧失?国台办回应,

  老妪也露出慈祥的笑,道:“孩子真不简朴,不管怎样说,即便幽雨再不小心,能被你刹那到手,照旧很是惊人。”

,欧美一级做一级A视频,亚洲女人黄色性生活视频,www.快色视频。

??时势4:久久精品众筹私拍宾馆

??01月08日,广州一汽配仓库发生火灾 暂无人员伤亡,

  在早霞中,那小小的身影十分绚烂,散发着一股恐怖的气息,如一尊幼小的天神般,屹立在瀑布上,全身有一种难明的气韵。

?第六十一章 重瞳,农村老丰满少妇乱能免费视频在线,国产美女露脸按摩自拍视频一区,欧美va精品在线。

??01月08日,HICOOL 2024全球创业者峰会开幕 多国科创企业亮相北京,

  蛟鹏眼中发出野兽般的光束,神色极其不善,恨不得连忙动用族中的至强宝术,将小不点一巴掌按进地里。

,超碰人人操人人搞,叶凯薇多少钱,动漫 无打码。

责编:陈广众

审核:熊志霞

责编:圣约翰

相关推荐 换一换

Copyright (C) 2001-   dzwww.com. All Rights Reserved

新闻信息效劳允许证 - 音像制品出书允许证 - 广播电视节目制作谋划允许证 - 网络视听允许证 - 网络文化谋划允许证

山东省互联网传媒集团主理  联系电话:0531-85193202  违法不良信息举报电话:0531-85196540

鲁ICP备09023866号-1   鲁公网安备 37010202000111号  

Copyright (C) 2001- Dzwww   鲁ICP备09023866号-1

网站地图