数智化转型网szhzxw.cn 人工智能资讯 人工智能资讯|硅基流动升级DeepSeek-R1 等推理模型API ,支持 128K 上下文长度

人工智能资讯|硅基流动升级DeepSeek-R1 等推理模型API ,支持 128K 上下文长度

硅基流动(SiliconCloud)宣布对其 DeepSeek-R1等推理模型 API 进行了一次重要升级,旨在更好地满足开发者对长上下文和灵活参数配置的需求。此次升级中,多个推理模型的最大上下文长度被提升至128K,使得模型在思考时能够更加充分,输出内容也更为完整。

在此次升级中,多个知名模型,如 Qwen3、QWQ、GLM-Z1等,均支持128K 的最大上下文长度,而 DeepSeek-R1则支持96K。这一提升为复杂推理任务,如代码生成和智能体的应用提供了强有力的支持。

更为重要的是,硅基流动还引入了独立控制 “思维链” 和 “回复内容” 长度的功能。通过这种方式,开发者能够更加高效地利用模型的推理能力。最大回复长度(max_tokens)现在仅用于限制模型最终输出给用户的内容,而思维链长度(thinking_budget)则专门用来控制模型在思考阶段的 Token 使用量。这样的设计使得开发者能够根据实际任务的复杂程度,灵活调整模型的思考深度和输出长度。

以 SiliconCloud 平台的 Qwen3-14B 为例,用户可以通过设置 thinking_budget 和 max_tokens 来分别控制模型的最大思维链长度和最大回复长度。在推理过程中,若思考阶段生成的 Token 数达到 thinking_budget,Qwen3系列推理模型会强制停止思维链推理。而对于其他推理模型,则可能会继续输出思考内容。

此外,如果最大回复长度超过 max_tokens 或上下文长度超出 context_length 限制,模型输出的回复内容将会被截断,响应中的 finish_reason 字段将标记为 length,表示因长度限制而终止输出。

欲了解更多关于 API 使用的细节,用户可以访问硅基流动的官方文档。随着硅基流动的不断创新,用户体验将持续提升,更多功能也将相继推出。

声明:本文来自网络,版权归作者所有。文章内容仅代表作者独立观点,不代表数字化转型网立场,转载目的在于传递更多信息。如有侵权,请联系我们。数字化转型网www.szhzxw.cn

本文由数字化转型网(www.szhzxw.cn)转载而成,来源于网络;编辑/翻译:数字化转型网(Professionalism Achieves Leadership 专业造就领导者)默然

免责声明: 本网站(http://www.szhzxw.cn/)内容主要来自原创、合作媒体供稿和第三方投稿,凡在本网站出现的信息,均仅供参考。本网站将尽力确保所提供信息的准确性及可靠性,但不保证有关资料的准确性及可靠性,读者在使用前请进一步核实,并对任何自主决定的行为负责。本网站对有关资料所引致的错误、不确或遗漏,概不负任何法律责任。 本网站刊载的所有内容(包括但不仅限文字、图片、LOGO、音频、视频、软件、程序等) 版权归原作者所有。任何单位或个人认为本网站中的内容可能涉嫌侵犯其知识产权或存在不实内容时,请及时通知本站,予以删除。https://www.szhzxw.cn/82100.html
联系我们

联系我们

17717556551

邮箱: editor@cxounion.org

关注微信
微信扫一扫关注我们

微信扫一扫关注我们

关注微博
返回顶部