在当前的大模型(LLM)领域,深度搜索能力已成为顶尖智能体的“必杀技”。然而,这一赛道的游戏规则长期以来被资源雄厚的工业巨头所主导。传统的开发模式通常依赖于极其消耗资源的流水线,包括预训练、持续预训练(CPT)、监督微调(SFT)以及强化学习(RL)。数智化转型网www.szhzxw.cn
近日,来自学术界的研发团队发布了最新成果
该团队在数据合成方面提出了三项核心优化策略:首先是扩大知识图谱规模,以提供更丰富的探索空间;其次是显著增加工具集数量,扩展功能边界;最后是实施严格的低步数过滤,确保训练数据的精炼与高效。
实验数据显示,仅基于1.06万条数据点训练的
值得关注的是,这是首个在同等模型规模与架构下,由纯学术团队仅通过SFT技术实现的 state-of-the-art(SOTA)搜索智能体。目前,该团队已正式开源
若您对人工智能感兴趣,可添加数智化转型网小助手思思微信加入人工智能交流群。若您在寻找人工智能供应商,可联系数智化转型网小助手思思(17757154048,微信同号)

若您为人工智能服务商,可添加数智化转型网小助手Nora,加入人工智能行业交流群。

若您为人工智能创业者,可添加数智化转型网社群主理人Carina,加入人工智能创业交流群。

声明:本文来自数智化转型网,版权归作者所有。文章内容仅代表作者独立观点,不代表数智化转型网立场,转载目的在于传递更多信息。如有侵权,请联系我们。

本文由数智化转型网(www.szhzxw.cn)转载,编辑/翻译:数智化转型网(Professionalism Achieves Leadership 专业造就领导者)白龙
