AI在线 AI在线

终结数据荒!智源开源首个Deep Research数据合成框架InfoSeek

近日,北京智源人工智能研究院(简称「智源研究院」)发布开源数据集InfoSeek,成为首个面向深度研究(Deep Research)场景的大规模开源数据集。 在这一工作中,智源研究团队揭示了深度研究问题与层级约束满足问题(Hierarchical Constraint Satisfaction Problem)之间的数学等价关系,并由此提出了基于「扩散-回溯」过程的数据合成方法,实现了深度研究训练数据的大规模自动扩增。 利用上述方法,研究团队总计合成了包含5万条训练样本的数据集InfoSeek,并据此训练出参数规模仅3B的智能体模型。

近日,北京智源人工智能研究院(简称「智源研究院」)发布开源数据集InfoSeek,成为首个面向深度研究(Deep Research)场景的大规模开源数据集。

在这一工作中,智源研究团队揭示了深度研究问题与层级约束满足问题(Hierarchical Constraint Satisfaction Problem)之间的数学等价关系,并由此提出了基于「扩散-回溯」过程的数据合成方法,实现了深度研究训练数据的大规模自动扩增。

利用上述方法,研究团队总计合成了包含5万条训练样本的数据集InfoSeek,并据此训练出参数规模仅3B的智能体模型。

在BrowseComp-Plus基准测试中,该模型取得了16.5%的准确率,性能已接近Gemini、Sonnet 4.0等领先商业模型,充分验证了该方法在深度研究任务上的有效性与潜力。

相关数据集与数据合成方法现已面向社区开放,为推动该领域研究提供了坚实基础。

资源链接:

数据集:

https://huggingface.co/datasets/Lk123/InfoSeek

代码仓库:

https://github.com/VectorSpaceLab/InfoSeek

技术报告:

https://arxiv.org/abs/2509.00375

简介

从撰写行业调研报告到梳理复杂的学术脉络,我们对大模型的期待早已超越了简单的问答。

由此,诞生了「深度研究」(Deep Research)问题。

与传统的QA任务不同,这类问题需要更高维度的推理和检索,往往需要重复多轮以下步骤:问题拆解、多元信息获取、结果整合。

然而,模型/智能体在这类任务上的表现尚不尽人意,其中一个关键的障碍是缺乏高质量训练数据。

现有数据集或难度较低,或结构单一,难以教会模型如何像人类专家一样,面对一个庞大而模糊的问题,层层深入,最终找到答案。

为弥补这一缺失,智源研究院推出了一个专为Deep Research构建的数据合成框架首个开源数据集InfoSeek,为推动这一领域的更进一步发展提供了坚实基础。

传统QA大多为单一/多约束满足问题(Condition Satisfaction Problem),只需要使用一次或数次检索就能获得答案;

多跳问题(Multi-hop Problem)是NLP中一直较有挑战的一类任务,其具有的链式结构,需要依次解决多个单一约束满足问题并推理出最终答案。

如下图所示,基于这两类问题,智源研究院提出将深度研究问题定义为层级约束满足问题(Hierarchical Condition Satisfaction Problem),以涵盖深度研究所具有的多层级、多分枝的复杂结构。

终结数据荒!智源开源首个Deep Research数据合成框架InfoSeek

图1. 各类QA任务的定义与示例

基于这一定义,团队设计了能够自动化的智能体pipeline。

通过「扩散」的方式,从一个根节点出发,构造出HCSP的树状结构,并通过「回溯」,从叶子节点倒推回根节点来确认每个HCSP的正确性和有效性。

终结数据荒!智源开源首个Deep Research数据合成框架InfoSeek

图2. InfoSeek构造HCSP的智能体流程示意图

智源研究院将这一构造方法,和通过其构造的50k条高质量QA数据全部开源,并通过使用这一批数据来进行模型训练,在数个难度极高的QA基准上验证了InfoSeek的有效性。

数据集

智源研究院开源的InfoSeek数据集包含超过5万条样本。其中数据主要集中在需要4–6中间节点的问题上。为了验证其难度,研究人员使用Qwen2.5-72B模型并采用CoT进行测试,结果显示其整体失败率高达91.6%。

值得一提的是,InfoSeek的数据构造流程支持这一数据集的持续扩容。同时,可以进一步包含更多的中间节点来继续加大问题的难度

终结数据荒!智源开源首个Deep Research数据合成框架InfoSeek

表格1. InfoSeek开源数据集统计信息

实验

基于InfoSeek训练的模型在BrowseComp-Plus上取得了非常突出的成绩。

与没有经过额外微调的Qwen3,和在传统QA数据集NQ、HotpotQA上训练的Search-R1模型相比,基于InfoSeek训练的模型在面对BrowseComp中的困难问题时,能够通过大幅提高搜索次数,以检索需要的信息。

其带来的助力也直接体现在了正确率的提升上,16.5%的准确率取得了当前开源模型的最佳效果,并且能够与Gemini、Sonnet 4.0等商业模型媲美。

终结数据荒!智源开源首个Deep Research数据合成框架InfoSeek

图3. 各模型在BrowseComp-Plus基准上的表现,基于InfoSeek训练的3B模型的表现与当前的主流商业模型媲美

同时,以HotpotQA等为代表的传统QA基准,通过高质量的多跳问题来评估模型进行多轮的推理和检索工具调用的能力。

智源研究院使用InfoSeek数据所训练的模型,在多个多跳QA的benchmark上取得了非常亮眼的表现,进一步验证了InfoSeek的有效性。

终结数据荒!智源开源首个Deep Research数据合成框架InfoSeek

图4. 各模型在多跳QA基准上的表现

总结

数据的质量决定了模型的高度。

InfoSeek为开源社区提供了高质量的训练数据和数据合成框架,为未来Deep Research的发展提供助力。

智源研究院也会在这一领域持续深耕,未来期待与更多科研机构及产业伙伴合作,共同推动检索与人工智能的发展。

欢迎研究者与开发者关注并使用InfoSeek及后续系列工作,共建开放繁荣的开源生态。

相关资讯

微软等开源AIOpsLab,可构建自主云AI Agent

微软、加州大学伯克利分校、伊利诺伊大学等研究人员联合开源了,一个专用于云自动化运维的AI Agents——AIOpsLab。 AIOpsLab能模拟真实云服务环境中的复杂操作任务,实现故障的自动化检测、定位和解决问题。 还具备高度的可观测性,能够收集和分析关键的遥测数据,确保对系统状态和应用环境的深入洞察。
1/27/2025 9:51:24 AM
AIGC开放社区

DeepSeek开源Janus-Pro-7B:多模态AI模型性能超越DALL-E 3 和 Stable Diffusion 3!

中国人工智能公司 DeepSeek 的 R1“推理”人工智能已经引起了广泛关注,位居应用商店排行榜首位并改变了股市。 随后DeepSeek又宣布开源新一代多模态模型Janus-Pro-7B,该模型在图像生成、视觉问答等任务中全面超越 OpenAI 的 DALL-E 3 和 Stable Diffusion 3,并以“理解-生成双路径”架构和极简部署方案引发AI社区轰动。 性能表现:小模型吊打行业巨头Janus-Pro-7B虽仅有70亿参数(约为GPT-4的1/25),却在关键测试中碾压对手:文生图质量:在GenEval测试中以80%准确率击败DALL-E 3(67%)和Stable Diffusion 3(74%)复杂指令理解:在DPG-Bench测试中达84.19%准确率,能精准生成如“山脚下有蓝色湖泊的雪山”等复杂场景多模态问答:视觉问答准确率超越GPT-4V,MMBench测试得分79.2分接近专业分析模型技术突破:像“双面神”分工协作传统模型让同一套视觉编码器既理解图片又生成图片,如同让厨师同时设计菜单和炒菜。
2/7/2025 11:00:00 AM
AIGC Studio

李飞飞、DeepSeek为何偏爱这个国产模型?

斯坦福李飞飞团队的一篇论文,近来在AI圈子掀起了一场飓风。 他们仅用1000个样本,在16块H100上监督微调26分钟,训出的新模型s1-32B,竟取得了和OpenAI o1、DeepSeek R1等尖端推理模型相当的数学和编码能力! 团队也再次证明了测试时Scaling的威力。
2/8/2025 9:30:00 AM
新智元
  • 1