首页
henry 发自 凹非寺量子位 | 公众号 QbitAI
LLM的下一个推理单位,何须是Token?
刚刚,字节Seed团队宣布最新研究——
DLCM(Dynamic Large Concept Models)将大模子的推理单位从token(词) 动态且自顺应地推到了concept(看法)层级。
DLCM通过端到端地方法学习语义界线,动态地将Token序列支解成看法,在压缩后的看法空间中举行深度推理,并借助因果交织注重力将看法级推理效果重构为Token级展望
由此,古板LLM中基于匀称、冗余Token信息密度的盘算分派,被转化为面向看法的动态推理与自顺应算力分派。
在以推理为主的基准使命上,DLCM在将推理阶段FLOPs降低34%的同时,还将平均准确率提升了2.69%
这也意味着,大模子的推理效率并不必定依赖更麋集的Token级盘算,而可以通过更高层级的语义组织来获得。
接下来,我们详细来看。
分层的下一token展望框架
如上所说,DLCM的焦点在于学习动态的Token-看法映射,实现了盘算资源的自顺应分派。
之以是这样做主要有两方面缘故原由:
一方面,在自然语言中,信息的漫衍并不是匀称的,而是集中在集中在少数语义转换的节点上。
然而,在目今的LLM中,所有token被统一处置惩罚,信息密度不匀称的自然语言消耗了同样的盘算量,造成了大宗的冗余与模子容量的错配。
另一方面,此前基于潜在推理的框架,如大型看法模子(Large Concept Model, LCM)等,不但需要单独训练编码器息争码器,还依赖人为划分的牢靠的、句子级别的粒度,缺乏拓展性与自顺应性。
针对这些问题,DLCM通过一种分层的下一token展望框架,将盘算重心转移到压缩后的语义空间,实现了更高效的深度推理。
详细来说,这一框架包括四个阶段:
首先,在编码阶段,DLCM通过一个编码器,提取细粒度的Token级体现,捕获局部上下文信息,作为界线检测和最终Token级解码的基础。
接下来,在动态支解阶段,模子基于Token级体现,盘算相邻Token之间在潜在空间中的局部不相似性(使用余弦距离),当不相似度凌驾阈值时,模子判断为一个语义断点(看法界线)。
与牢靠句子长度差别,DLCM端到端地学习这些界线,实现内容自顺应的支解。
它将统一片断内(即统一看法内)的所有Token体现举行均值池化(Mean Pooling),然后投影到更高维度的看法维度上,最终形成一个长度大大压缩的看法序列 。
然后,在看法级推理阶段,模子将上面获得的看法序列在压缩空间中举行深度的、高容量的推理,获得经由深度推理和信息整合后的看法体现。
最后,在Token级解码阶段,DLCM使用经由推理的看法体现,重构并展望下一个token。
由此,DLCM通过以上四个办法,乐成地将盘算分派从低效的Token-Token交互,转移到高效的Token-看法-Token 交互,实现了盘算资源的自顺应、结构化使用。
要害手艺突破与优化
虽然DLCM架构在设计上实现了Token级和看法级?榈囊旃,但同时也引入了新的工程和训练挑战。
全局剖析器(Global Parser):内容自顺应压缩
DLCM 的焦点优势在于它能够凭证信息密度动态地划分看法。
例如,关于信息冗余度高的代码或简朴文本,可以激进地压缩;关于语义重大的转折点,则坚持较低压缩比。
为实现这一点,研究引入了全局剖析器(Global Parser)和辅助损失函数。
这个机制的要害在于:它不要求单个序列严酷遵照目的压缩比 ,而是在整个Batch层面约束平均界线天生率。
这使得DLCM在共享全局压缩比例目的的条件下,实现了随领域转变、随内容波动的自顺应分段,从而将盘算资源精准地分派到语义最要害的区域。
针对Flash Attention的效率优化
在解码阶段,Token需要通过因果交织注重力关注其所属的看法。
由于每个看法包括的Token数目是转变的,若是直接实现,会严重依赖效率低下的动态掩码和不规则的内存会见。
针对这一问题,研究引入看法复制(Concept Replication)战略。它将看法特征沿着序列维度复制扩展,使其长度与原始Token序列对齐。
由此,研究将重大的可变长交织注重力问题转换为长度对齐、局部恒定的注重力问题,并使其能够使用高度优化的Flash Attention Varlen内核,获得了1.26倍到1.73倍的显著加速。
异构架构的稳固训练
由于DLCM 的Token级组件和看法级主干网络的宽度纷歧致,通过上投影毗连,无法共享简单有用学习率。
为解决这一问题,研究接纳解耦的最大更新参数化,为Token?楹涂捶?榉峙闪俗粤Φ目矶人醴乓蜃,并发明各组件的有用学习率应与其宽度的倒数成比例缩放。
由此,研究乐成地稳固了这种不等宽架构的训练,并实现了零样本超参数迁徙,即小型署理模子上找到的最佳学习率可以直接用于训练更大的DLCM模子。
量化最优分派点
除上述优化外,研究还进一步基于scaling law探讨了token级处置惩罚与看法级推理之间的最优分派。
研究发明,在牢靠压缩比下,架构效率在中等看法主干占比处抵达峰值,而非随看法容量枯燥提升。
更主要的是,这一最优设置在规模增大时优势愈发明显:随着基线模子变大,在性能对齐的条件下,DLCM可实现越来越显著的FLOPs节约。
在实验阶段,研究接纳了与LLaMA论文中报告的相同的全局批次巨细、学习率和序列长度,让每个模子都在1T Token上举行训练。
其中,DLCM实现了43.92%的平均准确率,凌驾了基线模子41.23%的分数,提升了2.69%。
One more thing
这篇论文的一作来自英国曼彻斯特大学的在读博士生Qu Xingwei,师从Chenghua Lin教授。
他的研究偏向聚焦于大语言模子(LLMs),主要包括预训练、微调、专家混淆(Mixture of Experts)以及System-2大语言模子。
在教育配景方面,他本科结业于北京航空航天大学,导师为段海滨教授;硕士就读于获慕尼黑工业大学,导师为Daniel Cremers教授。
在读博前,他曾在字节跳动和小鹏汽车担当研究工程师。
[1]https://x.com/GeZhang86038849
[2]https://arxiv.org/abs/2512.24617
《忘川超女粉丝的原视频官方版下载》,《Q8X2R7L1T4J5M9B6W3》黄网站在线观看永久免费
“伊人电影在线观看”
玖辛奈被鸣人 黄漫画
……
01月08日
“日韩人人操人人干”女子高速倒车+超速 求民警留1分
↓↓↓
01月08日,两会今日看点:人大会议将举行闭幕会,国产视频9999,蓝草莓黄网站 免费蓝莓,黄片免费在线啪,黄色软件网站大全
01月08日,李强在世界经济论坛2024年年会开幕式上的特别致辞(全文),黄片小视频在线看,八重身子去内奖励旅行者免费,国产女人久久精品视,亚洲色情久久久久爽爽专区
01月08日,张克辉同志遗体在京火化 习近平等到八宝山革命公墓送别,黑料不打烊徐若瑄天使心,又粗又硬又黄又爽免费,欧美大胆A片一区二区,18Д
01月08日|川渝两地首次开展森林火灾联合应急演练|侵犯美女视频免费在线看无打码|久就草视频|日韩亚洲免费视频在线观看|原神芙宁娜裸体 开腿
01月08日|15岁女孩遭母亲男友砍伤十多处?重庆彭水警方通报|足控吃脚 Xx免费网站|日韩v国产v亚洲v精品Tv|操操操网站|操操操免费观看中文字幕
01月08日|【两会Vlog】亲历政协大会闭幕!小新感受同心聚力|嘿咻视频无码免费区在线观看|国产高清毛片视频在线播|捆绑调教sm国产专区|女学生和老师做爰A片……
01月08日,日媒:两架美军“鱼鹰”运输机在日本一机场紧急着陆 ,国产特黄特色的大片观看免费视频,亚洲两性网站,操女人,欧美高潮视频
01月08日,王雅繁、商竣程、郑钦文艰难晋级澳网单打第二轮,A级高清免费毛片Av水蜜桃,www..com黄色网站在线观看视频,云缨主动脱裤子让我添,第五人格cos做爱
01月08日|“全球建行助力企业高质量‘走出去’”活动在京举行|在线观看国产麻豆|综合福利网|IGAO为爱寻找激情下载|美女 18禁 裸体 黄片
01月08日,广西瑶族神秘黄泥鼓舞:从深山舞向国际,2021最新三级电影,雏田爆乳被 秘流片3D,xvdiows软件免费下载,免费又黄又爽A视频免费看
01月08日,孙杨复出首秀夺小组第一 晋级400米自由泳决赛,肏入肥岳直肠屄,福利色一区精品,原神雷电将军被禁,啦啦啦视频在线观看免费星空影视6
01月08日,“科目三”之后,“一元一串的钵钵鸡”也火到台湾?,人人操人人高潮,欧美一区二区AAA片,一品色毛片成免费观看年人,国产欧美 一区
01月08日|河湖空间成首都“新窗口” “五一”假期吸引527万市民畅游|人人看人人要人人操|久久综合网色—综合色88|免费一级特黄A毛大片看看|人人操人人添人人射
01月08日|2025年放假安排来了!多了两天假,你想怎么休?|国产一级a爱看片免费视频|国产多毛❌X❌X❌高菲菲|俄罗斯裸体老妇|亚洲色图 偷窥
01月08日|美国博主呼吁美国向中国伸出友谊之手,为构建人类命运共同体共同努力|三角木马|美女把鸡巴插进入阴道里还COS|美老牛逼逼|91在线超碰
失事泰国飞机坠毁画面:机身垂直坠落,村支书系爱马仕皮带坐豪车慰问贫困户|日本大学生中国“探亲”大熊猫:把心留在了四川|gogo国模大胆私拍|女人十八毛片免费视频播放器|国产人人干人人透免费看|玖玖色视频网
监制:邓金木
策划:赖晗
主创:唐征宇 林箴贺 陈佛烘 颜亦阳 陈林韵
编辑:王家菁、段圣祺

闽公网安备 35010302000113号