v6.903.6992.397671 最新版
v4.43.7583.165605 PC版
v5.457.2091.249499 PC版
v7.640.7771.81837 安卓最新版
v6.897 安卓免費版
v4.876 安卓漢化版
v6.948.6926 最新版
v2.258.3901.562066 安卓版
v9.87.3931.215553 安卓版
v9.149.6686 安卓免費版
v4.888 IOS版
v8.964 安卓最新版
v8.521.5214.226434 PC版
v3.105.9553 IOS版
v5.40 安卓免費版
v2.914.4211.952173 IOS版
v2.235 安卓免費版
v2.462 IOS版
v6.260.2343.828843 最新版
v7.73.3716.744747 最新版
v8.14.7845.365072 IOS版
v5.500 安卓免費版
v4.892.7638.449565 安卓漢化版
v8.94 最新版
v9.810.5289 IOS版
v9.313 IOS版
v1.276.5080.496583 IOS版
v4.474.3514.718673 安卓最新版
v3.271 安卓最新版
v5.186.5498.620059 IOS版
v1.418 安卓最新版
v2.686.4285.547860 安卓免費版
v1.49 安卓漢化版
v4.654.9369 PC版
v5.70 安卓免費版
v7.831.2163.447830 IOS版
v8.524.9293.241132 PC版
v9.988.5925 最新版
v2.964 最新版
v3.332.9034.908867 安卓最新版
v6.574.4122.883570 IOS版
v6.889.4338.548672 安卓最新版
v5.324 安卓漢化版
v3.598.2317.50313 最新版
v8.218 IOS版
v3.293.7412.410280 最新版
v4.25 PC版
v4.672 安卓免費版
v6.260.8024.178903 最新版
v4.660.6952.47265 安卓漢化版
v4.284.5372 IOS版
v6.926.1989 最新版
v3.136.6481.393817 安卓版
v6.290.6263.953364 IOS版
v9.307 安卓免費版
v5.659 安卓免費版
v2.648.273.671871 安卓漢化版
v9.559.9100.929517 安卓版
v6.815 安卓免費版
v5.675 安卓最新版
v2.642.9378.972499 安卓最新版
v2.165 安卓免費版
v7.797 安卓漢化版
v1.154 安卓最新版
v6.357 安卓版
v2.546.2782.614022 安卓版
v1.685.4578.933771 IOS版
v6.366.2388.168145 最新版
v9.984.2773.184582 安卓最新版
v5.425 安卓漢化版
v5.691.2375.140077 安卓最新版
v8.293 安卓版
v3.520.4478 安卓版
v4.83.7154.942291 IOS版
v8.898.7626.720388 最新版
v9.283 安卓免費版
v2.660.1446.688643 PC版
v5.179 安卓版
v6.752.5273.602472 最新版
v8.108.8629.934394 安卓版
一本久久
闻乐 发自 凹非寺量子位 | 公众号 QbitAI
256K文本预加载提速超50%,还解锁了1M上下文窗口。
美团龙猫LongCat系列新年出招,宣布全新希罕注重力机制LoZA(LongCat ZigZag Attention)
新手艺集中火力,重点解决长文本使命的明确、算力难题。
相比于LongCat系列之前的全注重力MLA机制,LoZA只改了一半的焦点?。
但模子长文本能力从256K扩展到1M,解码速率还快了不少。
甚至比同类型的Qwen-3模子体现还要好。
接下来看详细计划。
怎样做到 “只算要害部分” ?
全注重力机制的算力瓶颈在于平方级的盘算重漂后O (L?),这导致模子在处置惩罚长文本使命时对显卡要求高,还会泛起推理延迟问题。
LoZA的焦点思绪是专注于处置惩罚主要的内容,不主要的部分少花实力。
作为LongCat系列的焦点手艺升级,LoZA主要是在原来的MLA机制上做刷新。
详细分两步。
首先,给模子里的多头潜在注重力?镸LA做一个全局“筛查”,找出哪些?榭梢员凰⑿。
在原来的MLA架构中,每个MLA?槎际谴χ贸头W⒅亓Φ慕沟愕ノ唬衷诘男录苹歉扛瞿?榕湟桓隹裳叭ㄖ卅。
α值越高,说明该?槎钊⒅亓ε趟阍揭Γ坏┘蚧腿菀锥阅;α值越低就意味着?榈目商婊恍郧浚幢慊怀筛崃康呐趟惴椒ǎ哉宓拿魅纺芰τ跋煲膊淮。
在训练历程中,团队冻结模子其他参数,只更新α的梯度,通过这种专门的校准训练让模子自主学习α值,然后按α值从小到大排序,找出那些希罕化后不影响性能的MLA?椋簿褪呛笮挠呕康。
随后,将找出的50%低性能?榛怀筛嵊牧魇较:弊⒅亓SA
这样就形成了一种交织结构,团队将这种结构称为ZigZag
SSA的盘算重漂后是线性的O (L·S)(S为希罕窗口大。慰课1024Token),远低于全注重力的O (L?)。
以是这种交织结构让模子既不会由于太过简化而变笨,又能把盘算重漂后降到线性级别,省不少算力。
为了让模子在关注局部细节的基础上不忽略整体逻辑,LoZA还设计了一个1024Token希罕窗口
每个窗口里有1个认真抓整体关联的“全局块”和7个认真盯周围内容的“局部块”,单块巨细为128Token。
这样的刷新也不需要重新训练,在中期训练阶段就能完成,本钱也较量低。
从测试数据来看,LoZA的体现也不错,主要是“更快”的同时“没变笨”
速率上,要是处置惩罚128K上下文,解码速率直接比原来快10倍;
256K上下文,模子预加载(读文本历程)速率快了50%,后续解码阶段天生内容时还能省30%的算力,相当于同样的硬件,现在能同时处置惩罚两倍多的长文本使命。
这也让LongCat-Flash-Exp解锁了1M上下文窗口。
性能上,LoZA也没由于简化而缩水。
处置惩罚回覆问题、写代码这类一样平常使命时,和原版LongCat-Flash持平;处置惩罚长文本使命时,体现反而更好。
好比在MRCR测试里,反超了同样能处置惩罚1M长文本的Qwen-3模子,还更稳固。
接下来,团队还妄想让LoZA支持动态希罕比例
随笔本场景自动多用全注重力包管精度,长文本场景自动增添希罕?樘嵘剩踔潦逝涠嗄LW哟χ贸头3な悠怠⒊ね嘉哪谌。
好一个新年新气象!
论文地点:https://www.alphaxiv.org/abs/2512.23966
— 完 —
相关版本
多平台下载
审查所有0条谈论>网友谈论
日向花火去掉布料
www.642av .com
公车上拨开内裤进入青少年
久久国产精品99国产精免费观看
久久久久久久久精品国产电影一
人人超碰干
欧美一级电影片
处破18分钟疼哭视频
久久性欧美
黄射网在线观看
A级毛片不卡视频
中国老头老太❌❌❌拒绝改写
荣荣的胸襟距离观察视频
77亚洲夜色精品站最多收藏
人人操人人乐
美国操逼网站
AV网站入口
色色色xxxxx