首页
新智元报道
编辑:LRST
【新智元导读】动态检索增强天生(Dynamic RAG)通过自顺应判断「何时检索」来缓解大语言模子的幻觉问题,但现有要领普遍依赖模子内部信号(logits、entropy、attention等),而LLM自己的信号校准较差,即常对过失谜底「自信满满」。克日,来自伊利诺伊大学芝加哥分校、纽约大学、与蒙纳士大学的联合团队提出QuCo-RAG,首次跳出「从模子自己内部信号来评估不确定性」的头脑定式,转而用预训练语料的客观统计来量化不确定性,在多跳QA基准上对OLMo系列模子实现5-14个EM点的显著提升,并且有用性乐成迁徙至Llama3、Qwen2.5、GPT4.1/5等预训练数据未果真的模子。
当检索增强天生(RAG)从静态走向动态,一个焦点问题浮出水面:何时该触发检索?
现有要领的谜底是:看模子内部信号。FLARE看句子中的token天生概率,DRAGIN看entropy和attention,ETC看entropy的一阶二阶差分,SeaKR看FFN内部状态……
但这一范式存根天性缺陷:LLM通常校准能力很差,经常对过失输出体现出高置信度。
DRAGIN vs QuCo-RAG比照。(a)DRAGIN依赖模子内部信号,过失地将问题中的「Il」标记为高不确定性,却对幻觉出的过失导演名显示低不确定性。(b) QuCo-RAG通过预训练语料中的零共现检测,准确识别出幻觉。
DRAGIN在天生过失的导演名「Mario Camerini」时显示低不确定性(Uncertainty < threshold),却对问题中的通俗token「Il」报出高不确定性(Uncertainty = 1.47 > threshold)。
这就是所谓的「自信地乱说八道」(confident hallucination)——模子不知道自己不知道,内部信号完全失效。
更根外地,近期理论事情(Kalai & Vempala, 2024)证实:关于有数事实,纵然是完善校准的模子也必需爆发幻觉以维持统计一致性。
那么,有没有一种要领,能绕过这些不可靠的内部信号?
伊利诺伊大学芝加哥分校、纽约大学、与蒙纳士大学的联合团队提出QuCo-RAG,首次跳出「从模子自己内部信号来评估不确定性」的头脑定式,转而用预训练语料的客观统计来量化不确定性,在多跳QA基准上对OLMo系列模子实现5-14个EM点的显著提升,并且有用性乐成迁徙至Llama3、Qwen2.5、GPT4.1/5等预训练数据未果真的模子。
论文链接:https://arxiv.org/abs/2512.19134
开源代码:https://github.com/ZhishanQ/QuCo-RAG
QuCo-RAG的焦点洞察是:LLM的事实知识实质上由预训练语料塑造。
低频实体 = 长尾知识危害:若是一个实体在预训练语料中很少泛起,模子就难以可靠地影象关于它的知识。
零共现 = 幻觉高危害:若是两个实体在整个预训练语料中从未在同时泛起,那么模子声称的它们之间的关系就缺乏任何证据支持——这险些必定是幻觉。
更主要的是,这种因果关系是差池称的:
共现 ≠ 准确(两个实体可能以差别关系共现)
零共现 ≈ 幻觉(模子无法可靠地天生训练数据中从未见过的实体关系)
基于这一洞察,QuCo-RAG从「主观内部置信度」转向「客观语料统计」,通过Infini-gram引擎对4万亿token的OLMo-2预训练语料举行毫秒级盘问,实现精准的检索触发。
QuCo-RAG框架总览。两阶段检测:天生前知识评估(检查实体频率)+ 运行时声明验证(检查实体共现)。
QuCo-RAG通过两阶段检测机制量化不确定性:
第一阶段:天生前知识评估(Pre-Generation Knowledge Assessment)在模子最先天生之前,系统首先「诊断」输入问题:
提取问题中的要害实体(如Silas Hardy、Lee Mantle);
盘问每个实体在4万亿token预训练语料中的泛起频率;
若是平均频率低于阈值(默认1000次),触发检索;
焦点逻辑:低频实体代表「长尾知识」,模子很可能没有可靠影象。
第二阶段:运行时声明验证(Runtime Claim Verification)
在模子天生历程中,辖档同续监控每个天生的句子:
使用轻量级0.5B模子提取知识三元组(头实体, 关系, 尾实体);
盘问头尾实体在预训练语料中的共现次数;
若是共现次数为0,触发检索并重新天生;
焦点逻辑:零共现意味着模子正在「无中生有」——编造训练数据中从未泛起过的实体关系。
毫秒级语料库盘问
怎样在4万亿token的语料库上实现实时盘问?
QuCo-RAG使用Infini-gram引擎——一个基于后缀数组的索引系统,支持对万亿级token语料库的毫秒级频率和共现盘问。
轻量级三元组提取器
为了最小化开销,团队从GPT-4o-mini蒸馏了一个专用的0.5B三元组提取模子,基于Qwen2.5-0.5B-Instruct微调。
QuCo-RAG各组件运行时间剖析。LLM天生占主导(55-74%),Infini-gram盘问仅占18-31%,证实语料库检测引入的开销适度。
实验效果
周全领先,迁徙能力惊人
OLMo-2全系列5-12点提升
QuCo-RAG在所有模子规模和数据集上均取得最佳性能,EM提升5-12点。
在2WikiMultihopQA和HotpotQA两大多跳QA基准上,QuCo-RAG在OLMo-2全系列模子(7B、13B、32B)上周全逾越所有baseline:
OLMo-2-7B:+7.4 EM (2Wiki), +5.6 EM (HotpotQA)
OLMo-2-13B:+12.0 EM (2Wiki), +5.3 EM (HotpotQA)
OLMo-2-32B:+9.4 EM (2Wiki), +10.8 EM (HotpotQA)
而基于内部信号的要领(FLARE、DRAGIN、ETC、SeaKR)体现极不稳固,有时甚至不如简朴的单轮检索(SR-RAG)。
主实验为什么选择OLMo-2?
QuCo-RAG的焦点是使用预训练语料的统计信息。但一个要害问题是:怎样验证「语料统计」这个信号源自己是有用的?
这就需要一个「匹配语料」设置——即模子的预训练数据必需完全果真,才华准确盘算实体频率和共现统计。
OLMo-2是现在知足这一条件的高性能代表性开源模子:
提供完整的4万亿token预训练语料
性能与Qwen2.5等主流模子相当
笼罩7B/13B/32B多个规模
这使得OLMo-2成为验证QuCo-RAG焦点假设的理想测试平台。
跨模子迁徙:署理语料库同样有用
一个要害问题:若是模子的预训练数据不果真怎么办?
研究团队验证了一个主要假设:网络规模的预训练语料库之间保存大宗重叠。
因此,使用OLMo-2的语料库作为「署理语料库」,同样可以有用指导其他模子。
QuCo-RAG在Qwen2.5、Llama-3、GPT-4.1、GPT-5等模子上均实现显著提升。
要害发明:
Qwen2.5-32B:2WikiMultihopQA上提升14.1 EM
GPT-5-chat:2WikiMultihopQA上提升8.7 EM
相比之下,GPT模子自带的Web搜索工具反而低于不检索基线(可能由于网络噪声)
效率剖析:更少检索,更高性能
效率-性能权衡剖析。QuCo-RAG以最少的token消耗和LLM挪用次数抵达最高EM。
QuCo-RAG实现了「精准偷袭」式的检索:
平均每个问题仅触发1.70次检索
token消耗仅87个,LLM挪用仅1.84次
而FS-RAG和DRAGIN消耗2-4倍的token,性能却大幅落伍
领域泛化:生物医学问答同样有用
在PubMedQA生物医学问答基准上,QuCo-RAG同样体现精彩:
QuCo-RAG在PubMedQA上抵达66.4%准确率,逾越Wo-RAG 11.2个百分点。
内部信号要领在这个专业领域袒露出两种失败模式:
太过检索:FLARE平均2.79次检索,token消耗516。显著高于它在通用领域的检索次数和token消耗。
检索缺乏:DRAGIN和ETC触发检索的次数显著低于它在通用领域的检索次数。Acc体现与不检索基线持平。
QuCo-RAG则两者兼顾:平均0.93次检索,54.9个token,最高准确率。
深度剖析:为什么实体频率剖析有用?
按实体频率分层的性能剖析。低频区QuCo-RAG优势显着,高频区优势依然坚持。
研究团队按实体在语料库中的泛起频率将问题分组,展现了有趣的纪律:
低频区:模子缺乏知识,但内部信号无法识别这种知识缺陷
中频区:模子处于「部分学习」状态,熵等内部信号变得相对有用
高频区:实体频率 ≠ 事实频率——纵然实体常见,它们的特定关系可能有数
这最后一点尤为主要:高频实体让模子「太过自信」,但QuCo-RAG通过共现检测捕获到模子对熟悉实体的过失关系声明。
深远影响与未来偏向
本文将语料统计确立为模子内部不确定性信号的客观替换计划。虽然本文聚焦于RAG系统中的检索触发,但这一范式转变在AI清静与鲁棒性领域开发了多个值得探索的研究偏向。
赋能可信AI应用
实验证实,语料统计比内部信号提供了更可靠的不确定性怀抱。这种可靠性不但对RAG有价值,还可扩展到更普遍的清静要害使命:
选择性回覆:当缺乏证据支持时,模子可以拒绝回覆
准确性展望:语料统计为天生的声明提供有据可依的置信度评分
从推理时干预到以数据为中心的AI
语料统计剖析能够准确识别模子的知识盲区。
这一信号可以指导训练数据策划:与其仅在推理时通过检索来填补知识缺口,开发者可以在一连预训练或后训练阶段自动网络低频实体的数据。类似地,语料统计还可以指导:
合成数据过滤:在纳入训练集之前,用语料统计验证LLM天生的训练样本
模子编辑:区分哪些事实需要定向注入,哪些已被模子可靠学习
范式的延伸偏向
多个研究偏向值得探索:
多语言验证:通过跨语言统计实现多语言场景的不确定性量化
时序动态:使用带时间戳的语料处置惩罚知识演变问题
逾越实体:将要领扩展到事务、关系和数值声明的验证
智能体集成:作为自我验证工具集成到智能系一切中,在执行行动前验证天生内容
理论基础
跨模子迁徙的有用性引发了一些值得思索的问题:为什么署理语料能跨模子族生效?能否形式化地建设「给定语料统计的幻觉概率」的信息论界线?这些问题与LLM中「影象vs泛化」的更普遍讨论相关联。
参考资料:
https://arxiv.org/abs/2512.19134
秒追ASI
?点赞、转发、在看一键三连?
点亮星标,锁定新智元极速推送!
《中文字幕在线2020》,《Q8X2R7L1T4J5M9B6W3》男人将 放在女生的 里
“a片黄在线观看网站”
精品视频在线观看免费
……
01月02日
“高清视屏免费av”非快速眼动之窗 2023 冬
↓↓↓
01月02日,2024年我国医疗器械工业市场规模预计超1.2万亿元,久久九九亚洲精品法国国内产一级,辉夜的小玩具丢了,国产一二三精品无码不卡,久久国产精品综合影院免费播放
01月02日,以“纬度”为径探寻中国之美 点燃农文旅融合新引擎,天天做天天爽性色视频高新清免费,欧美在线观看永久免费,亚洲喷水性XXXX欧美喷水性,激情在线观看视频
01月02日,“梅花泰斗”花五宝在天津逝世 享年101岁,女人与狥交一级A片,男性自慰Gαy furry,黄网站黄网站黄网站黄网站黄网站黄网,魅魔母亲第三季动漫播放方式
01月02日|云南昭通市镇雄县山体滑坡已致3人遇难 搜救仍在紧张进行|久久黄色片视频影|国产激情自拍视频|谁有黄色网址?|99久久免费精品国产九九
01月02日|夫妻打印店还做假章假证?已寄6000余份 8人被刑拘!|在线免费av不卡户外|5年级小学女生隐私视频|国精产品一线二线三线免费|羞羞黄色网站在现看
01月02日|一批优质科研空间在河套深圳园区集中竣工|a级黄色精品视频|偷拍洗澡秘 视频播放|久久久 祼体视频|日本ww视频网站……
01月02日,防止有害文具损害学生健康,国外强奸实网址,jizz黄色视频免费在线观看,国内外成免费视频播放不卡,国产一精品一aV
01月02日,瞭望·治国理政纪事|打造国家清洁能源产业高地,日韩黄色网站推荐一下,mmmmwwww美国,国产精品熟女视频一区二区,欧洲激情性视频一区二区
01月02日|美国加利福尼亚州北部沿岸近海发生7.0级地震|宝贝儿浪一点把屁股撅起来让我操视频网站九九九|A级毛片无码视频|特黄特色大片免费视频一|91看片入口
01月02日,“黄埔后代要继承父辈热爱祖国这颗中国心”——陈知进回忆父亲陈赓,www.人人干.人人操.人人摸.com青青影院,欧美疯狂做受XXXX,插爽视频,男生把困困
01月02日,“体育星球”环境与体育展在萨马兰奇纪念馆开展,白丝校花 扒腿自慰网站,毛片社会,黄品汇下载,国语刺激对白
01月02日,崔健林忆莲李宇春等歌手齐聚南京 唱响音乐节,黄色在线91,91人成网站色www,灌肠网站作文,亚洲欧美另类久久久精品播放的
01月02日|(文化中国行)走进无锡千年古运河畔 漫步老巷感受文脉|乃万免费下载|成熟妓女偷窥汇编|A片在线观看噜噜噜久优|男女操网站
01月02日|宁夏突破滩羊繁育关键技术瓶颈 双羔滩羊产羔率达到160%以上|18禁 网站|igao视频天堂国产精品|玛奇玛被操|污网站
01月02日|崔健林忆莲李宇春等歌手齐聚南京 唱响音乐节|鸡行业黑话|91午夜视频|老熟妇高潮一区二区三区四区|中文字幕A片
红毯先生 娱乐圈名场面,公司董事长对供应商说去跳楼就赔钱|韩美日举行年内第二次“自由之刃”多域联演|农村妇女野外AAAAA图片|免费一级av无码毛片不卡|国产女色爽免费观看|集芳阁精品导航永久
监制:邓金木
策划:赖晗
主创:唐征宇 林箴贺 陈佛烘 颜亦阳 陈林韵
编辑:王家菁、段圣祺
生育力保存患者公益网站上海上线 为肿瘤患者提供更多生育机会
【新春纪事】趵突泉迎春花灯将于大年初一正式亮灯 提前一睹为快
空军驰援辽宁葫芦岛 为村民空投物资
广州迎降温天气 市民添衣出行
截至10月底 山西新增城镇就业43.33万人
湖北省人民检察院立案侦查的干永平涉嫌徇私枉法案移送审查起诉
台湾花莲县发生5.7级地震 震源深度10千米
协定存款频迎调整 银行揽储收紧
外贸企业持续享惠 北京海关累计签发RCEP原产地证书近万份
“镍都”金昌的美丽“铜”话
免费一级毛片在线
精品国产福利第一区二区
www.1134av.com
九九热这里只有精口的
97超碰中文字幕精品在线一区
在线观看亚洲精品91精品
腾讯涩漫下载进去
中国黄色丰满在线
又粗又大又黄页视频网站免费观看
班花在教室轮流澡到高潮小说

闽公网安备 35010302000113号