数智化转型网szhzxw.cn 企业出海 每日人工智能资讯|爆火!学术团队仅凭SFT打破大厂垄断,OpenSeeker-v2 登顶搜索智能体榜单

每日人工智能资讯|爆火!学术团队仅凭SFT打破大厂垄断,OpenSeeker-v2 登顶搜索智能体榜单

在当前的大模型(LLM)领域,深度搜索能力已成为顶尖智能体的“必杀技”。然而,这一赛道的游戏规则长期以来被资源雄厚的工业巨头所主导。传统的开发模式通常依赖于极其消耗资源的流水线,包括预训练、持续预训练(CPT)、监督微调(SFT)以及强化学习(RL)。数智化转型网www.szhzxw.cn

近日,来自学术界的研发团队发布了最新成果 OpenSeeker-v2,彻底打破了这一常规认知。研究报告指出,通过使用高质量、高难度的任务轨迹进行训练,即便仅采用简单的监督微调(SFT)方法,也能打造出性能顶尖的搜索智能体。数智化转型网www.szhzxw.cn

该团队在数据合成方面提出了三项核心优化策略:首先是扩大知识图谱规模,以提供更丰富的探索空间;其次是显著增加工具集数量,扩展功能边界;最后是实施严格的低步数过滤,确保训练数据的精炼与高效。

实验数据显示,仅基于1.06万条数据点训练的 OpenSeeker-v2(30B规模,ReAct架构),在四项核心基准测试中展现了极强的统治力:其在BrowseComp上的准确率达到46.0%,在BrowseComp-ZH上为58.1%,在“人类最后考试”(Humanity’s Last Exam)中表现为34.6%,而在xbench上更是高达78.0%。这一系列成绩不仅刷新了纪录,更全面超越了采用重度CPT+SFT+RL复杂管线训练的工业界模型——通义DeepResearch。

值得关注的是,这是首个在同等模型规模与架构下,由纯学术团队仅通过SFT技术实现的 state-of-the-art(SOTA)搜索智能体。目前,该团队已正式开源 OpenSeeker-v2 的模型权重。这一发现极大地降低了前沿搜索智能体的研发门槛,为学术界和开源社区提供了更具参考价值的轻量化开发路径。

若您对人工智能感兴趣,可添加数智化转型网小助手思思微信加入人工智能交流群。若您在寻找人工智能供应商,可联系数智化转型网小助手思思(17757154048,微信同号)

思思微信二维码

若您为人工智能服务商,可添加数智化转型网小助手Nora,加入人工智能行业交流群。

Nora微信二维码

若您为人工智能创业者,可添加数智化转型网社群主理人Carina,加入人工智能创业交流群。

Carina微信二维码

声明:本文来自数智化转型网,版权归作者所有。文章内容仅代表作者独立观点,不代表数智化转型网立场,转载目的在于传递更多信息。如有侵权,请联系我们。

底部图片
免责声明: 本网站(http://www.szhzxw.cn/)内容主要来自原创、合作媒体供稿和第三方投稿,凡在本网站出现的信息,均仅供参考。本网站将尽力确保所提供信息的准确性及可靠性,但不保证有关资料的准确性及可靠性,读者在使用前请进一步核实,并对任何自主决定的行为负责。本网站对有关资料所引致的错误、不确或遗漏,概不负任何法律责任。 本网站刊载的所有内容(包括但不仅限文字、图片、LOGO、音频、视频、软件、程序等) 版权归原作者所有。任何单位或个人认为本网站中的内容可能涉嫌侵犯其知识产权或存在不实内容时,请及时通知本站,予以删除。https://www.szhzxw.cn/117894.html
联系我们

联系我们

17717556551

邮箱: editor@cxounion.org

关注微信
微信扫一扫关注我们

微信扫一扫关注我们

关注微博
返回顶部