目今位置:首页 → 电脑软件 → 海南一公厕按大小便收费 → 无码在线二区 v2.36.9672.981480 IOS版
v2.85.7810.832368 安卓最新版
v3.611 安卓漢化版
v9.518.7592 安卓免費版
v6.848.5999.892890 IOS版
v2.277.378.8512 PC版
v8.922.9650.794493 安卓版
v2.223 安卓最新版
v3.338.2598.213710 安卓免費版
v3.562.4390.209128 安卓免費版
v6.836 安卓漢化版
v8.396 安卓漢化版
v6.240 PC版
v7.418.558.186550 最新版
v7.513 安卓最新版
v5.365 安卓漢化版
v1.913.6417 IOS版
v5.116.479.116080 IOS版
v4.174.7353.912526 IOS版
v2.392.1935.843740 PC版
v5.888.9024.174127 安卓漢化版
v5.753.8855.384006 最新版
v8.777 PC版
v6.68.7024.500180 安卓版
v3.987.749.243151 IOS版
v8.983.5407 安卓版
v7.601 PC版
v8.836.7145.987839 安卓免費版
v9.384 安卓版
v3.584.1918.158755 PC版
v5.967.601.835911 安卓版
v7.180.5665.20250 最新版
v8.291.8183.45978 安卓版
v3.339 最新版
v9.469.6396.198454 安卓漢化版
v9.628.2706 IOS版
v6.260.9310.390333 安卓版
v6.63.6409.235895 安卓漢化版
v5.433.9552 PC版
v9.689 IOS版
v5.853 IOS版
v9.186.7177.790887 IOS版
v4.927.7502.743305 安卓版
v3.733.7360.863134 安卓最新版
v8.868.7778.108791 安卓漢化版
v7.139.3861 安卓最新版
v2.519.9002 PC版
v4.375.7682.825393 安卓版
v6.890.3823.491710 安卓漢化版
v9.296.2635.245642 IOS版
v3.123.1483.582388 IOS版
v9.611.4354.441020 IOS版
v4.178.482 安卓免費版
v9.646.9468.339477 安卓漢化版
v4.656 PC版
v3.332.2743.229980 安卓漢化版
v4.365 PC版
v5.768 安卓版
v4.826 安卓版
v4.721.4241.268228 IOS版
v1.400.7324.471933 安卓免費版
v8.627.1172.709283 安卓免費版
v2.278.1640.447999 安卓漢化版
v6.74 PC版
v9.144.7285.918229 安卓漢化版
v6.78 安卓漢化版
v7.403.618 安卓最新版
v3.768 安卓漢化版
v3.329.1922 安卓免費版
v7.860.5458.834397 最新版
v5.994.1830.638294 PC版
v4.390.4199 安卓版
v1.587 安卓免費版
v3.270.5173.213888 安卓版
v9.794.2306 安卓最新版
v8.132.5627.876554 PC版
v3.129.585.649115 最新版
v9.5 安卓免費版
v9.442.1621.944369 PC版
v7.22.3723 最新版
v4.806.7807.931970 安卓最新版
无码在线二区
新智元报道
编辑:倾倾
【新智元导读】学霸的假话被揭穿!一篇来自Adobe Research的论文发明,高语义明确并不会提升天生质量,反而可能破损空间结构。用iREPA简朴修改,削弱全局滋扰,天生质量连忙飙升 。
我们经;嵋苫螅何裁词泳跄W釉礁呒,天生效果反而越差?
最近,Adobe Research发了一篇论文,专门诠释了这个看起来有点变态、但重复泛起的征象。
论文地点:https://arxiv.org/pdf/2512.10794
按直觉,模子要先知道「这是什么」,才华把它画出来。
ImageNet上的分类准确率越高,说明模子的语义明确越强,天生的内容越稳固、越靠谱。
但这篇论文给出的效果,完全相反:
一些在识别使命中体现平平、甚至看起来「很不智慧」的视觉编码器,反而能天生出结构更清晰、质量更高的图像。
全局语义能力越强,天生反而越容易出问题。
很可能我们从一最先,就误会了天生模子真正善于的是什么。
为什么视觉模子越「智慧」,天生的反而越差?
先看一个已经被重复验证的事实:一个模子在ImageNet上的线性探测准确率越高,并不料味着它更适适用来做天生。
最直观的例子是SAM2。这是一个在识别使命里不出彩的模子,验证准确率只有24.1%,远低于主流视觉大模子。
但当这些编码器被用于REPA时,SAM2的天生质量反而优于一批准确率横跨约60%的模子。
SAM2的ImageNet验证准确率仅为24.1%,但在REPA框架下的天生gFID显着优于多种准确率凌驾70%的视觉编码器。
这还不是某一个模子的无意体现。
论文进一步较量了统一编码器家族中差别规模的模子,效果发明:模子越大、分类准确率越高,天生质量反而可能相似或更差。
随着模子规模和分类准确率提升,天生gFID反而整体变差,批注这一征象并非由个体模子导致。
显然,「高语义能力=好天生」这条默认路径,在大宗实验中并不建设 。
更要害的是,这种征象并不是噪声。
在跨模子、跨设置的系统性剖析中,全局语义指标与天生质量之间的相关性始终很是弱。
分类能力与天生质量险些无关,空间结构却高度相关。左:线性探测准确率与天生 gFID 的相关性极弱(Pearson r=-0.26)。中:空间结构指标(LDS)与天生质量泛起出显著强相关(Pearson r=-0.85)。右:基于空间结构刷新的iREPA,在多种编码器上稳固优于REPA。
论文进一步对多种视觉编码器做了相关性剖析,效果很是明确:
线性探测准确率与天生质量之间险些不保存相关性。
相比之下,反应patch空间结构的指标,与天生质量泛起出极强的正相关关系。
若是不是「明确多」,那天生模子究竟依赖的是什么?
重复确认会压扁空间结构
在明确了「高语义≠好天生」之后,真正的问题酿成了:
为什么模子越是重复确认,天生反而越容易出问题?
要害就是,全局语义会在天生历程中压扁空间结构。
在天生使命中,模子并不是一次性输出图像,而是在训练和采样历程中,一直对局部patch之间的关系做判断。
论文将这种能力归纳综合为「空间结构」:即相邻patch之间应坚持更高相似性,而远处patch不应被全局语义过早拉近。
但当模子太过追谴责局语义一致性,好比通过CLS token ,或对所有patch做全局平均来强化「这是什么」,这些局部差别就会被系统性地削弱。
这种做法会导致一个直接效果:远景物体的patch,与本应无关的配景patch之间,泛起异常高的相似性。
空间比照度下降,界线变得模糊,天生效果因此糊成一片。
PE-G和WebSSL-1B在ImageNet上具有更高的分类准确率,但它们的空间自相似性显示,远景与配景被太过拉近,界线模糊。相比之下,空间结构更清晰的SpatialPE-B,天生质量显著更好。
研究员向模子中逐步加入全局语义信息,视察分类能力和天生质量的转变。
效果如下图所示:
增强全局语义信息会损害天生质量
随着全局信息权重α从0增添到0.5,模子的线性探测准确率一连上升。
但天生质量却显著下降,FID显着恶化。
也就是说,「更懂这是什么」确着实爆发;但与此同时,模子也失去天生所依赖的空间结构。
这并不是优化不充分的副作用,而是由于全局语义在天生阶段饰演了一个「过强约束」的角色。
它让模子更快告竣结论,却也更早放弃了对局部结构的细腻描绘。
既然语义会滋扰天生,iREPA选择退后一步
若是说前面的实验回覆了「问题出在哪」,那 iREPA 回覆的就是另一个问题:
既然全局语义会滋扰天生,那该怎么对齐体现,才不会把结构压扁?
iREPA给出了谜底。它对原本的REPA训练流程做了两处很是简朴的修改,总共不到四行代码 。
第一处,是投影方法的改变。
在标准REPA中,patch表征通;峋蒑LP投影层举行对齐。
但论文指出,MLP在这一历程中容易混淆差别位置的信息,无意中削弱了空间比照度 。
因此,iREPA用一个3×3的卷积层(padding=1)替换了MLP投影。
卷积的归纳偏置能保存局部邻域关系:相邻patch的相互影响被保存,远处区域则不会被过早混在一起 。
第二处修改,直接针对全局语义。
iREPA在对齐历程中引入了一个空间归一化层,移除了patch特征中的全局均值分量 ,让模子专注于局部之间的差别与界线。
iREPA怎样通过两处修改,恢复天生所需的空间结构。 (a) 使用卷积投影替换MLP,可更好地保存局部空间关系。 (b) 空间归一化层通过移除全局分量,提高patch之间的空间比照度。 (c) 经由这两步修改后,iREPA天生的diffusion特征泛起出更清晰的空间结构。
正是这两点改动,让iREPA在机制上与前一节的问题形成了严酷对应:
全局语义太强会抹平结构,那就在对齐阶段削弱全局分量、强化空间关系 。
效果也在意料之中。
无论是在ImageNet规模的天生使命,照旧更高区分率的设置,亦或是文本到图像的多模态天生使命中,iREPA都体现出更快的收敛速率和更好的最终天生质量。
更主要的是,这种提升并不依赖于某一个特定编码器。
在差别模子规模、差别视觉主干网络、差别训练设置下,iREPA都能稳固刷新。
这不但是一个技巧,而是顺着天生使命自己对结构的需求,把体现对齐这件事做得更榨取、更细腻。
许多时间,我们讨论天生模子时,会下意识沿用一个标准。
但这篇论文提醒了我们,天生并不是明确的自然下游。
对天生来说,最主要的并不是「这是什么」,而是「哪些地方该靠近,哪些地方该脱离」。
当我们一味强化全局语义,重复鞭策模子给出谜底,着实是在替它提前下结论。
iREPA并没有试图让模子变得更智慧。它做的更像是退后一步,把空间还给空间,把结构还给结构。
效果不是明确能力的奔腾,而是天生质量的回归。
参考资料:
https://x.com/1jaskiratsingh/status/2000701128431034736?s=20
https://end2end-diffusion.github.io/irepa/
秒追ASI
?点赞、转发、在看一键三连?
点亮星标,锁定新智元极速推送!
相关版本
多平台下载
审查所有0条谈论>网友谈论
www.sdh68.com
欧美黄国产
91黄色视频在线观看地址
最新中文字幕第一页
男女性爱网址
GV国产体育生
免费性爱视频网址
大屌插入妹妹的小穴
少妇被黑人4p到惨叫在线阅读
A级毛片网址
激情漫画家庭婷婷
国产熟女高潮与激情
丰满老熟妇肥大BBBBB
欧美freesex高潮喷水
中文字幕在现观看
91最新在线精品国自产拍
性爱丝袜视频
大雷大狙激战30分钟免费观看视频
欧美日韩国产第一页
国产一级婬片A片免费软
亚洲A级成人片在线观看流畅
国产一级毛片a午夜一级毛片
精品视自拍视频在线观看
特黄特色A级一区二区高清视频
人妖在线视频
欧美一级片网址
馃崋馃崋馃崋馃崋馃崙馃崙馃崙
99久久免费精品国产72精品
渔女吞精
国产免费福利影院