v9.142.9762.965353 安卓版
v9.451.2846 安卓免費版
v8.375.1063 安卓版
v9.833.4618 IOS版
v6.657 安卓漢化版
v1.923.9536.425144 安卓版
v6.148.1788.45403 PC版
v3.31 安卓漢化版
v1.736 安卓漢化版
v5.855.8642 安卓版
v5.945.2721.9593 安卓漢化版
v3.352.8917 安卓版
v4.525.1999.149609 安卓最新版
v1.351.701.456929 安卓免費版
v2.9.802.611678 安卓免費版
v8.181.8010.728486 PC版
v8.967.9735 PC版
v3.797.9224 IOS版
v9.728 安卓漢化版
v5.755.8105.210674 IOS版
v3.587.9185.129950 安卓漢化版
v4.170.2614.776599 安卓最新版
v8.135.6865 PC版
v5.666.963 IOS版
v8.776.7961.687004 IOS版
v3.99.4706.52044 最新版
v3.461 安卓免費版
v6.576 最新版
v2.478.7977 PC版
v1.954.6576.695928 安卓免費版
v8.725 PC版
v2.769.3500 最新版
v4.278.2190.536512 安卓版
v3.521.4829.887524 PC版
v7.11.4217.544965 安卓漢化版
v2.319.352 安卓漢化版
v5.404 安卓免費版
v1.962.8518.40811 安卓漢化版
v1.861.1508.613977 安卓免費版
v2.493.4635.475322 PC版
v4.936.6853.539360 IOS版
v2.401 安卓最新版
v3.426.4102.820646 安卓版
v4.422.6565.275327 安卓版
v5.430.524 安卓漢化版
v4.792 安卓免費版
v6.407.2983.763327 安卓免費版
v6.721.7243 安卓免費版
v7.564.7510.613744 IOS版
v8.55 安卓最新版
v1.12.1162.382461 最新版
v3.198.5069.210976 安卓免費版
v9.415.6498 安卓版
v1.394.7085 安卓漢化版
v1.127 安卓版
v1.239.453 PC版
v9.446.9939 安卓免費版
v5.327.5027.481413 安卓免費版
v6.232.937 安卓免費版
v9.476 安卓漢化版
v9.712 安卓最新版
v2.866.8624 安卓漢化版
v1.271.5555.929648 PC版
v7.784.2716.986319 最新版
v6.163.9746.415110 安卓免費版
v2.702.6545.346505 安卓漢化版
v2.493.4779 最新版
v2.359.1487.293093 最新版
v4.458.3926 PC版
v3.635.8477 PC版
v4.482 安卓最新版
v9.352.3775.594318 IOS版
v1.449.3385 安卓漢化版
v5.425.2078.297768 安卓免費版
v3.830 安卓漢化版
v3.547.169.594110 安卓漢化版
v7.504.1078.512241 最新版
v6.618.1847.416045 IOS版
v6.963.697.831100 PC版
v5.241.639 安卓版
亚洲免费视频在线
闻乐 发自 凹非寺量子位 | 公众号 QbitAI
256K文本预加载提速超50%,还解锁了1M上下文窗口。
美团龙猫LongCat系列新年出招,宣布全新希罕注重力机制LoZA(LongCat ZigZag Attention)
新手艺集中火力,重点解决长文本使命的明确、算力难题。
相比于LongCat系列之前的全注重力MLA机制,LoZA只改了一半的焦点模块。
但模子长文本能力从256K扩展到1M,解码速率还快了不少。
甚至比同类型的Qwen-3模子体现还要好。
接下来看详细计划。
怎样做到 “只算要害部分” ?
全注重力机制的算力瓶颈在于平方级的盘算重漂后O (L?),这导致模子在处置惩罚长文本使命时对显卡要求高,还会泛起推理延迟问题。
LoZA的焦点思绪是专注于处置惩罚主要的内容,不主要的部分少花实力。
作为LongCat系列的焦点手艺升级,LoZA主要是在原来的MLA机制上做刷新。
详细分两步。
首先,给模子里的多头潜在注重力模块MLA做一个全局“筛查”,找出哪些模块可以被刷新。
在原来的MLA架构中,每个MLA模块都是处置惩罚注重力的焦点单位,现在的新计划是给每个模块配一个可学习权重α。
α值越高,说明该模块额全注重力盘算越要害,一旦简化就容易丢性能;α值越低就意味着模块的可替换性强,即便换成更轻量的盘算方法,对整体的明确能力影响也不大。
在训练历程中,团队冻结模子其他参数,只更新α的梯度,通过这种专门的校准训练让模子自主学习α值,然后按α值从小到大排序,找出那些希罕化后不影响性能的MLA模块,也就是后续的优化目的。
随后,将找出的50%低性能模块换成更轻盈的流式希罕注重力SSA
这样就形成了一种交织结构,团队将这种结构称为ZigZag
SSA的盘算重漂后是线性的O (L·S)(S为希罕窗口巨细,牢靠为1024Token),远低于全注重力的O (L?)。
以是这种交织结构让模子既不会由于太过简化而变笨,又能把盘算重漂后降到线性级别,省不少算力。
为了让模子在关注局部细节的基础上不忽略整体逻辑,LoZA还设计了一个1024Token希罕窗口
每个窗口里有1个认真抓整体关联的“全局块”和7个认真盯周围内容的“局部块”,单块巨细为128Token。
这样的刷新也不需要重新训练,在中期训练阶段就能完成,本钱也较量低。
从测试数据来看,LoZA的体现也不错,主要是“更快”的同时“没变笨”
速率上,要是处置惩罚128K上下文,解码速率直接比原来快10倍;
256K上下文,模子预加载(读文本历程)速率快了50%,后续解码阶段天生内容时还能省30%的算力,相当于同样的硬件,现在能同时处置惩罚两倍多的长文本使命。
这也让LongCat-Flash-Exp解锁了1M上下文窗口。
性能上,LoZA也没由于简化而缩水。
处置惩罚回覆问题、写代码这类一样平常使命时,和原版LongCat-Flash持平;处置惩罚长文本使命时,体现反而更好。
好比在MRCR测试里,反超了同样能处置惩罚1M长文本的Qwen-3模子,还更稳固。
接下来,团队还妄想让LoZA支持动态希罕比例
随笔本场景自动多用全注重力包管精度,长文本场景自动增添希罕模块提升效率,甚至适配多模态模子处置惩罚长视频、长图文内容。
好一个新年新气象!
论文地点:https://www.alphaxiv.org/abs/2512.23966
— 完 —
相关版本
多平台下载
审查所有0条谈论>网友谈论
男生坤坤怒怼女生坤坤免费影视51
吞丸vore
婷婷国产精品美女久久久
老色鬼好大好爽av
男人猛躁女人㊙️拨发萝软件
亚洲中文久久精品无码无卡
黑粗吊操在线视频
熟女高跟肉丝
看黄片视频在线
Johnny rapid双龙
色综合欧美色综合七久久
国产网址在线观看
免费看鸥美全黄视频
青草视频国
亚洲69久久久久久
欧美乱一伦一性一交
日本欧美在线播放视频
操操操干干干
火影忍者甜蜜日记资源
新婚H圆房~H嗯啊1V2动漫
思思热思思干精品
黄色APP在线下载
看全黄色视频免费.....
原神美女卖淫网站
日本美女一级c欧美
人人人干视频在线
小月网盘