目今位置:首页 → 电脑软件 → 不会带团队就只能自己帮别人写作业《求是》发表习近平总书记重要文章 → 久久99精品久久久久久久久久 v2.499 IOS版
v9.618.5277.855115 安卓免費版
v2.325.4785.21024 安卓版
v7.912.1418.431310 安卓最新版
v3.25.1425.383768 安卓漢化版
v8.777.7538.869865 安卓免費版
v5.531.5504.262402 安卓版
v1.609.2393.666222 PC版
v2.547.9011.103468 安卓免費版
v2.398.50.613001 PC版
v6.209 安卓最新版
v1.983.1328.568511 安卓最新版
v6.413.4466 安卓最新版
v1.165.1301 最新版
v9.697 IOS版
v8.88.7231.370171 PC版
v7.751.1568.516006 IOS版
v1.540.9186.712636 安卓免費版
v7.224.5478.288632 IOS版
v1.954.6220.70130 安卓最新版
v3.608.1429.564112 IOS版
v9.831.5167 安卓漢化版
v7.797.3746.367842 安卓漢化版
v7.548.3387.253300 安卓最新版
v8.632.3724 PC版
v1.419 最新版
v4.403.9641 安卓版
v2.5.992.547277 最新版
v6.899.3781.571782 安卓版
v8.71 安卓漢化版
v3.17.9078.193757 安卓最新版
v3.621 安卓漢化版
v7.112.121.253015 安卓漢化版
v6.991.2228.640725 PC版
v3.905.5443 安卓免費版
v4.565.1099.418162 安卓版
v5.432.5505 IOS版
v6.291 最新版
v5.952.9382.401391 IOS版
v5.173.7585.82825 PC版
v3.20.9773.831038 安卓免費版
v1.816.6306.440994 IOS版
v6.157.2060.691705 IOS版
v8.724.6086.414467 安卓版
v3.925 安卓漢化版
v9.929.5199.480673 安卓免費版
v9.776 最新版
v8.991.4532 安卓免費版
v4.301.6607.302274 安卓免費版
v7.764 最新版
v9.576.5693.442513 安卓最新版
v7.880 安卓漢化版
v2.965 最新版
v1.124 IOS版
v3.12.5738.96507 安卓漢化版
v2.353.2418 IOS版
v5.761 安卓最新版
v6.124 安卓最新版
v3.286.7857 IOS版
v4.517.4244 IOS版
v9.332 安卓最新版
v6.327.4021.532300 IOS版
v1.145 PC版
v3.932 PC版
v6.984.2713 安卓漢化版
v3.485.9031 安卓漢化版
v8.145 最新版
v8.212.7471 最新版
v4.923.7184.994283 安卓漢化版
v8.535.1849.600735 PC版
v9.364.3302 安卓最新版
v2.767.8525.194330 PC版
v3.425.5533.783510 安卓版
v8.599.2577.951174 PC版
v1.847.2951.329903 PC版
v6.428 IOS版
v9.492 IOS版
v2.349.4694.628314 最新版
v8.177.4213.165662 安卓版
v4.193.4638.70238 安卓漢化版
v9.514 安卓漢化版
久久99精品久久久久久久久久
新智元报道
编辑:LRST
【新智元导读】多目的(Multi-target) 以及 视觉参照(Visual Reference) 为视觉定位(Visual Grounding)使命的推理速率和性能同时带来了全新的挑战。 为相识决这一难题,来自UIC和Adobe的研究团队提出了VGent模子。这是一种兼顾速率与性能的?榛杓,旨在将模子的推理与展望能力解耦,并辅以多种?榛銮考苹 。最终,VGent依附不到16B的参数目,在多目的及带视觉参照的视觉定位基准(Omnimodal Referring Expression Segmentation, ORES)上,大幅逾越了Qwen3-VL-30B,实现了平均+18.24 F1的重大提升!
在多模态大模子(MLLM)时代,视觉定位是MLLM细粒度推理能力的主要一环,同时也是实现人机交互和具身智能的焦点能力。
现有的解决计划主要分为两类:
原生Token派(Native-token):像 Qwen2.5-VL 或 Ferret-v2 这样的模子,通过自回归(auto-regressive)的方法使用原有的词表逐个天生界线框坐标 。这种方法不但速率慢(推理时间随目的数目线性增添),并且在多目的场景下容易爆发幻觉(Hallucinations),即模子可能会在枚举完所有目的工具之前就过早阻止,或者在目的麋集的场景中陷入无限天生的死循环。如图一所示,随着目的数目的增添,这类要领在多目的场景下的低效和不稳固性变得尤为显着。
新增Token派(New-token):另一类要领实验通过引入特殊的token(如[SEG]或 object token)来指代目的物。他们需要网络大规模的数据集、从LLM起重新构建一个能明确这些新增token的MLLM。因此,这种要领不可阻止地会破损LLM在预训练阶段获得的通用推理能力。更严重的是,其导致无法直接使用现有的、先进的、举行了更大规模预训练的开源MLLM(如 QwenVL系列)。
来自UIC(伊利诺伊大学芝加哥分校) 和Adobe的研究团队提出一种?榛谋嗦肫-解码器(Encoder-Decoder)架构VGent,其焦点头脑是:将高层的语义推理交给MLLM,将底层的像素展望交给目的检测器(detector),最终通过hidden state将这种解耦后的关系举行毗连。
论文地点:https://arxiv.org/abs/2512.11099
研究职员以为,语义推理和精准定位是两种截然差别的能力,强迫训练一个简单的整体模子去同时醒目笼统的语义推理和像素级别的底层展望,会导致性能和效率上的权衡。
更切合直觉的方法,应该是由差别的组件做各自善于的事。
基于这一洞察,VGent提出了一种?榛谋嗦肫-解码器设计,使用现成的MLLM和detector将高层多模态推理与底层展望解耦。
其焦点理念在于MLLM和detector的优势是互补的:MLLM善于多模态语义对齐和推理,而detector则善于高效地提供精准的多目的检测框。
图一:VGent(蓝色)与现有先进的MLLM(Qwen2.5-VL,灰色)在多目的视觉定位使命上的比照。左图显示VGent的推理时间恒定且迅速,而 MLLM 随目的数目增添呈线性增添;右图显示VGent在F1分数上实现了显著提升,特殊是在多目的场景下。
要领
基础架构
VGent主要由图二所示的encoder和decoder两部分组成,并引入了三种?榛銮炕疲ㄍ既⑺暮臀澹。
图二:VGent框架概览
如图二所示,左侧encoder是一个 MLLM,使用QuadThinker来提升其多目的推理能力。冻结的encoder输出hidden states并存储下来给到decoder。右侧decoder初始化自encoder的LLM 层,其将detector天生的object proposal作为query,通过cross-attention与encoder的hidden states交互。
研究职员在decoder内部新增了self-attention层(参数初始化自统一层的cross-attention),用于增进query之间的信息交流。 最终的输出举行yes / no的二元判断来选择每个proposal是否属于目的。响应的segmentation mask则通过 prompt SAM 获得。
QuadThinker:强化多目的推理能力
针对MLLM在多目的场景下推理能力下降的问题,研究职员提出了一种基于 GRPO 的强化学习训练范式QuadThinker,通过设计特定的prompt和reward functions,指导模子执行区域到全局、分步推理的历程:先划分统计图像四个象限内的目的数目,再汇总总数,最后展望详细坐标。
图三:QuadThinker所使用的prompt。
Mask-aware Label:解决检测与支解的歧义
在多目的场景中,检测(Box)与支解(Mask)使命的界说保存一定的差别。检测通常优化「一对一」的匹配,而支解则旨在召回所有远景像素。
图四:Mask-aware Label示意图;贗oA的标签分派战略能召回被古板IoU忽略的细粒度部件。
这种差别导致了标注歧义:例如图四(左)中,检测器可能将「鹿头装饰」与其「挂绳」视为两个自力的框。
在检测使命的 IoU 标准下,由于挂绳的框较量小、相关于整体真值框的重叠率过低,往往会被看成负样本在标注阶段被过滤掉(被标上负标签)。可是关于支解使命来说,这个挂绳属于远景,其应该被标上正标签。
为此,VGent引入了Mask-aware Label,使用IoA (Intersection-over-Area) 指标举行特另外标签分派。如图四(右),IoA通过盘算候选mask (通过proposal prompt SAM获得)与多目的真值的union mask的交集,并除以候选mask自身的面积获得。
由于IoA的分母是候选mask自身面积,该机制能精准召回那些虽然只笼罩了部分目的群(如细小的挂绳)但依然有用的 proposal。模子使用另一个自力的MLP head专门展望这种支解导向的标签,用于解决视觉定位中支解类型的输出。
Global Target Recognition:增强全局感知
为了提升候选框选择的准确性,VGent 引入了Global Target Recognition?。
图五:Global Target Recognition示意图。使用Learnable Queries注入全局目的数目信息,并聚合多个detector的效果以提升召回率。
为了提高召回率,研究职员聚合了来自多个detector的proposal形成一个统一的query set,之后引入了特另外 learnable queries与这些proposal queries拼接作为decoder的输入。
这组query被专门训练用于展望目的的总数以及正样本proposal的数目。通过decoder层内的self-attention机制,这些包括全局统计信息的learnable query能够与proposal query举行交互,将「全局线索」撒播给每一个候选框,从而增强其对目的群体的整体明确,实现更精准的选择。
实验效果
研究职员在最新的多目的视觉定位基准 ORES (MaskGroups-HQ) 以及古板的单目的数据集上举行了普遍评估。
多目的视觉定位(Multi-target Visual Grounding)
图六:在 Omnimodal Referring Expression Segmentation (ORES) 上的性能比照。ORES是多目的以及保存视觉参照(w/ < mask-ref >)的视觉定位基准。
如图六所示,在极具挑战的ORES基准上,VGent 取得了全新的SOTA效果。相比之前的最佳要领RAS13B,VGent在F1分数上实现了+20.58%的重大提升。VGent在gIoU和cIoU上都带来了显着的提升。
值得注重的是,纵然比照参数目更大的Qwen3-VL-30B,VGent 依然坚持显著优势。同时,得益于?榛杓,VGent 在目的数目增添时坚持恒定且快速的推理速率,阻止了自回归模子随目的增添而线性增添的推理延迟(如图一所示)。
单目的视觉定位(Single-target Visual Grounding)
图七:在referring expression comprehension (REC) 上的性能比照。
VGent在古板单目的基准(RefCOCO, RefCOCO+, RefCOCOg)上也体现卓越。
VGent实现了90.1%的平均准确率,逾越了InternVL3.5-20B和38B等更大规模的模子 。相比其backbone (Qwen2.5-VL-7B),VGent带来了+3.5%的平均性能提升。
可视化
图八:VGent在差别挑战下的展望效果可视化。
VGent在重大场景中展现了极强的鲁棒性。
如图八(上)所示,VGent精准定位所有方形钟表,纵然保存大宗相似的钟表作为滋扰项,展现了VGent在麋集多目的场景下的优越体现。
图八(下)中,VGent 乐成定位了视觉参照(蓝色 mask),并继续推断出左侧穿裙子的女士,扫除了右侧的滋扰项。
参考资料:
https://arxiv.org/abs/2512.11099
秒追ASI
?点赞、转发、在看一键三连?
点亮星标,锁定新智元极速推送!
相关版本
多平台下载
审查所有0条谈论>网友谈论
欧美一级a视频免费
欧美天天天天激
一道本视频在线观看
色就是色欧美黄片
国产二级三级精品
《旧里番-[3D]邻居与小鬼
久久综合国产热精品乱子
影音先锋欧美片第98页
超碰播放在线
人人玩人人妻精品一区一
德国拳交妓女
乱轮视频网站
亚洲欧美同性吃瓜
sihuav
初学生疯狂
人人干人人操免费
免费无码无线观看在线视频
亚洲欧美综合久久久久久
黄色网址国产
在线无码91超碰
国产精品18 一区黄桃
一级黄片不卡视频黄站
A级毛片无码免费久久真人动漫
男女啪啪无遮挡GIF动态图
几几寒进桃子里免费看
国产盗摄无遮挡裸体视频
日本人人舔人人操
18 小泬破白浆啪啪漫画
成 人 免费 黄 色 视频
九色PORNY嫩草❤️7hao
国产国语操逼视频
亚洲欧美国产乱伦一区
91禁 动漫在线