(1秒完整评测)yeyebirdie妻子系列苹果版v600.33.03.85.72.90.60.83-2265安卓网

k1体育麻将胡了

搜索 猫眼影戏 融媒体矩阵
  • 山东手机报

  • 猫眼影戏

  • 公共网官方微信

  • 公共网官方微博

  • 抖音

  • 人民号

  • 天下党媒平台

  • 央视频

  • 百家号

  • 快手

  • 头条号

  • 哔哩哔哩

首页 >新闻 >社会新闻

F1暴涨20分,推理速率恒定!新架构VGent:多目的定位又快又准

2026-01-07 10:35:17
泉源:

猫眼影戏

作者:

尚锦

手机审查

  猫眼影戏记者 李霞 报道Q8X2R7L1T4J5M9B6W3

新智元报道

编辑:LRST

【新智元导读】多目的(Multi-target) 以及 视觉参照(Visual Reference) 为视觉定位(Visual Grounding)使命的推理速率和性能同时带来了全新的挑战。 为相识决这一难题,来自UIC和Adobe的研究团队提出了VGent模子。这是一种兼顾速率与性能的?榛杓,旨在将模子的推理与展望能力解耦,并辅以多种?榛銮考苹 。最终,VGent依附不到16B的参数目,在多目的及带视觉参照的视觉定位基准(Omnimodal Referring Expression Segmentation, ORES)上,大幅逾越了Qwen3-VL-30B,实现了平均+18.24 F1的重大提升!

在多模态大模子(MLLM)时代,视觉定位是MLLM细粒度推理能力的主要一环,同时也是实现人机交互和具身智能的焦点能力。

现有的解决计划主要分为两类:

原生Token派(Native-token):像 Qwen2.5-VL 或 Ferret-v2 这样的模子,通过自回归(auto-regressive)的方法使用原有的词表逐个天生界线框坐标 。这种方法不但速率慢(推理时间随目的数目线性增添),并且在多目的场景下容易爆发幻觉(Hallucinations),即模子可能会在枚举完所有目的工具之前就过早阻止,或者在目的麋集的场景中陷入无限天生的死循环。如图一所示,随着目的数目的增添,这类要领在多目的场景下的低效和不稳固性变得尤为显着。

新增Token派(New-token):另一类要领实验通过引入特殊的token(如[SEG]或 object token)来指代目的物。他们需要网络大规模的数据集、从LLM起重新构建一个能明确这些新增token的MLLM。因此,这种要领不可阻止地会破损LLM在预训练阶段获得的通用推理能力。更严重的是,其导致无法直接使用现有的、先进的、举行了更大规模预训练的开源MLLM(如 QwenVL系列)。

来自UIC(伊利诺伊大学芝加哥分校) 和Adobe的研究团队提出一种?榛谋嗦肫-解码器(Encoder-Decoder)架构VGent,其焦点头脑是:将高层的语义推理交给MLLM,将底层的像素展望交给目的检测器(detector),最终通过hidden state将这种解耦后的关系举行毗连。

论文地点:https://arxiv.org/abs/2512.11099

研究职员以为,语义推理和精准定位是两种截然差别的能力,强迫训练一个简单的整体模子去同时醒目笼统的语义推理和像素级别的底层展望,会导致性能和效率上的权衡。

更切合直觉的方法,应该是由差别的组件做各自善于的事。

基于这一洞察,VGent提出了一种?榛谋嗦肫-解码器设计,使用现成的MLLM和detector将高层多模态推理与底层展望解耦。

其焦点理念在于MLLM和detector的优势是互补的:MLLM善于多模态语义对齐和推理,而detector则善于高效地提供精准的多目的检测框。

图一:VGent(蓝色)与现有先进的MLLM(Qwen2.5-VL,灰色)在多目的视觉定位使命上的比照。左图显示VGent的推理时间恒定且迅速,而 MLLM 随目的数目增添呈线性增添;右图显示VGent在F1分数上实现了显著提升,特殊是在多目的场景下。

要领

基础架构

VGent主要由图二所示的encoder和decoder两部分组成,并引入了三种?榛銮炕疲ㄍ既⑺暮臀澹。

图二:VGent框架概览

如图二所示,左侧encoder是一个 MLLM,使用QuadThinker来提升其多目的推理能力。冻结的encoder输出hidden states并存储下来给到decoder。右侧decoder初始化自encoder的LLM 层,其将detector天生的object proposal作为query,通过cross-attention与encoder的hidden states交互。

研究职员在decoder内部新增了self-attention层(参数初始化自统一层的cross-attention),用于增进query之间的信息交流。 最终的输出举行yes / no的二元判断来选择每个proposal是否属于目的。响应的segmentation mask则通过 prompt SAM 获得。

QuadThinker:强化多目的推理能力

针对MLLM在多目的场景下推理能力下降的问题,研究职员提出了一种基于 GRPO 的强化学习训练范式QuadThinker,通过设计特定的prompt和reward functions,指导模子执行区域到全局、分步推理的历程:先划分统计图像四个象限内的目的数目,再汇总总数,最后展望详细坐标。

图三:QuadThinker所使用的prompt。

Mask-aware Label:解决检测与支解的歧义

在多目的场景中,检测(Box)与支解(Mask)使命的界说保存一定的差别。检测通常优化「一对一」的匹配,而支解则旨在召回所有远景像素。

图四:Mask-aware Label示意图;贗oA的标签分派战略能召回被古板IoU忽略的细粒度部件。

这种差别导致了标注歧义:例如图四(左)中,检测器可能将「鹿头装饰」与其「挂绳」视为两个自力的框。

在检测使命的 IoU 标准下,由于挂绳的框较量小、相关于整体真值框的重叠率过低,往往会被看成负样本在标注阶段被过滤掉(被标上负标签)。可是关于支解使命来说,这个挂绳属于远景,其应该被标上正标签。

为此,VGent引入了Mask-aware Label,使用IoA (Intersection-over-Area) 指标举行特另外标签分派。如图四(右),IoA通过盘算候选mask (通过proposal prompt SAM获得)与多目的真值的union mask的交集,并除以候选mask自身的面积获得。

由于IoA的分母是候选mask自身面积,该机制能精准召回那些虽然只笼罩了部分目的群(如细小的挂绳)但依然有用的 proposal。模子使用另一个自力的MLP head专门展望这种支解导向的标签,用于解决视觉定位中支解类型的输出。

Global Target Recognition:增强全局感知

为了提升候选框选择的准确性,VGent 引入了Global Target Recognition?。

图五:Global Target Recognition示意图。使用Learnable Queries注入全局目的数目信息,并聚合多个detector的效果以提升召回率。

为了提高召回率,研究职员聚合了来自多个detector的proposal形成一个统一的query set,之后引入了特另外 learnable queries与这些proposal queries拼接作为decoder的输入。

这组query被专门训练用于展望目的的总数以及正样本proposal的数目。通过decoder层内的self-attention机制,这些包括全局统计信息的learnable query能够与proposal query举行交互,将「全局线索」撒播给每一个候选框,从而增强其对目的群体的整体明确,实现更精准的选择。

实验效果

研究职员在最新的多目的视觉定位基准 ORES (MaskGroups-HQ) 以及古板的单目的数据集上举行了普遍评估。

多目的视觉定位(Multi-target Visual Grounding)

图六:在 Omnimodal Referring Expression Segmentation (ORES) 上的性能比照。ORES是多目的以及保存视觉参照(w/ < mask-ref >)的视觉定位基准。

如图六所示,在极具挑战的ORES基准上,VGent 取得了全新的SOTA效果。相比之前的最佳要领RAS13B,VGent在F1分数上实现了+20.58%的重大提升。VGent在gIoU和cIoU上都带来了显着的提升。

值得注重的是,纵然比照参数目更大的Qwen3-VL-30B,VGent 依然坚持显著优势。同时,得益于?榛杓,VGent 在目的数目增添时坚持恒定且快速的推理速率,阻止了自回归模子随目的增添而线性增添的推理延迟(如图一所示)。

单目的视觉定位(Single-target Visual Grounding)

图七:在referring expression comprehension (REC) 上的性能比照。

VGent在古板单目的基准(RefCOCO, RefCOCO+, RefCOCOg)上也体现卓越。

VGent实现了90.1%的平均准确率,逾越了InternVL3.5-20B和38B等更大规模的模子 。相比其backbone (Qwen2.5-VL-7B),VGent带来了+3.5%的平均性能提升。

可视化

图八:VGent在差别挑战下的展望效果可视化。

VGent在重大场景中展现了极强的鲁棒性。

如图八(上)所示,VGent精准定位所有方形钟表,纵然保存大宗相似的钟表作为滋扰项,展现了VGent在麋集多目的场景下的优越体现。

图八(下)中,VGent 乐成定位了视觉参照(蓝色 mask),并继续推断出左侧穿裙子的女士,扫除了右侧的滋扰项。

参考资料:

https://arxiv.org/abs/2512.11099

秒追ASI

?点赞、转发、在看一键三连?

点亮星标,锁定新智元极速推送!

??时势1:青草视频成人

??01月07日,安徽歙县:千年古城内 “00”后焕新演绎徽文化,

  “我知道……”小石昊大眼扑闪,长长的睫毛轻颤,小脸上心情重大,主要、痛苦、挣扎、坚定……逐一泛起。

,a片黄在线观看网站。

??01月07日,遇见福建:宁德迎来新年初雪,

  先生们、少先队员们:

,黄色一区二区,国产精品26,欧 美 成 人 网站在线观看。

??时势2:视频在线在线看精品

??01月07日,平台已履行算法解释说明义务不构成侵权,

  “九太爷背上我!”突然,石毅启齿,请这名宗老带他一起入阵对决。

,“【红球汉化】[Kumayaki(Luwei)]Alcohol Party 酒 精派对”,久久综合一色综合久久小蛇,在线免费av网址。

??01月07日,苏菲·玛索:中国电影为国际电影市场注入新活力,

  这一刻,朱厌全身金毛倒竖,眼睛瞪的溜圆,很主要,死死的盯着焦黑树干上那条莹绿的嫩枝。

,大片A,国外人人射人人操,黄色网站面费。

??时势3:狂插乱捅

??01月07日,南方多地遭遇酷热“持久战” 浙苏沪局地突破历史极值,

  山巅坦荡,种种巨石横陈,走进石林最深处后,不禁令人赞叹,许多巨石上都有图案,很是逼真,如金乌逐电、囚牛踏海、鲲鹏展翅……形状各异。

,www.毛片在线,日日日网站,黄色视频97.。

??01月07日,中国首届国际滑雪技术大会在河北崇礼开幕,

  四大宗老再受震惊,又一次喷血。

,94人人操人人操,国产一级a爱视频在线,欧美又黑又大AAA视频。

??时势4:6秒抓大雷免费观看下载

??01月07日,国家产融合作试点城市“一城一策”路演(重庆涪陵站)启动,

共青团讲话 篇1

,男人的屁股插到女人的嘴里屁股里动漫,一级a一级a爰片免费久久久,色色色人干人人干人人。

??01月07日,河南发布《企业常见法律风险提示暨合规建设指引》白皮书,

  我们兴致勃勃地跑到果园里随着农民伯伯学种树。我们认真地听着,农民伯伯说:“种树考究“一垫、二提、三埋、四踩,一垫是在挖好的树坑内再垫一些松土;树木栽种的时间要提一提树干,起到梳理树根的作用;而埋树的土要分三次埋下;每埋一次要踩实土壤,其间至少要踩四次。”伯伯刚说完话,我们连忙跑没影儿了,原来,都急着去种树了。

,小心 入,美女彼C,www.91在线国产精品。

责编:木村拓哉

审核:官琨

责编:安东尼·塔里科恩

相关推荐 换一换

Copyright (C) 2001-   dzwww.com. All Rights Reserved

新闻信息效劳允许证 - 音像制品出书允许证 - 广播电视节目制作谋划允许证 - 网络视听允许证 - 网络文化谋划允许证

山东省互联网传媒集团主理  联系电话:0531-85193202  违法不良信息举报电话:0531-85196540

鲁ICP备09023866号-1   鲁公网安备 37010202000111号  

Copyright (C) 2001- Dzwww   鲁ICP备09023866号-1

网站地图