数智化转型网szhzxw.cn 人工智能资讯 每日人工智能资讯|DeepSeek-V4预览版正式发布:1M 超长上下文进入全员普惠时代

每日人工智能资讯|DeepSeek-V4预览版正式发布:1M 超长上下文进入全员普惠时代

 深度求索(DeepSeek)今日宣布其全新系列模型DeepSeek-V4预览版本正式上线并同步开源。该系列模型通过结构创新,实现了1M(一百万字)超长上下文能力的标准化,在 Agent 协作、世界知识及逻辑推理性能上均达到国内及开源领域的领先水平。数智化转型网www.szhzxw.cn

一、双版本布局:Pro 追求极致,Flash 兼顾效率

DeepSeek-V4根据应用需求分为两个规格:

  • DeepSeek-V4-Pro(1.6T参数,激活49B): 性能直击顶级闭源模型。在 Agentic Coding 评测中达到开源最佳水平,交付质量接近 Opus4.6;在数学、STEM 及竞赛代码测评中,超越所有公开评测的开源模型,展现出世界顶级的推理性能。

  • DeepSeek-V4-Flash(284B参数,激活13B): 主打极致性价比。虽然世界知识储备略逊于 Pro 版,但在简单任务的推理能力和 Agent 表现上与 Pro 版旗鼓相当,能提供更快捷、经济的 API 服务。数智化转型网www.szhzxw.cn

二、结构创新:DSA 机制实现长上下文普惠

DeepSeek-V4开创性地采用了 DSA 稀疏注意力机制。通过在 Token 维度进行压缩,模型大幅降低了超长上下文对计算量和显存的需求。这意味着1M 上下文将成为 DeepSeek 所有官方服务的标配,解决了长文本处理高昂成本的行业痛点。数智化转型网www.szhzxw.cn

1、深度适配 Agent 生态

针对当前主流的 Agent 产品(如 Claude Code、CodeBuddy 等),DeepSeek-V4进行了专项优化。模型支持非思考模式思考模式,并在 API 中开放了 reasoning_effort 参数,允许用户根据任务复杂度调节思考强度(high/max),显著提升了在代码生成和文档处理等复杂场景下的表现。数智化转型网www.szhzxw.cn

2、访问与开源计划

目前,用户可通过官网或官方 App 体验最新模型,API 亦已同步更新。值得注意的是,旧有的 deepseek-chatdeepseek-reasoner 模型名将于三个月后(2026年7月24日)停用。数智化转型网www.szhzxw.cn

  • 开源链接: 已在Hugging Face魔搭社区上线。数智化转型网www.szhzxw.cn

  • 技术报告: 同步披露于Hugging Face仓库中。数智化转型网www.szhzxw.cn

此次DeepSeek-V4的发布,不仅验证了开源模型在长上下文与 Agent 能力上追赶顶级闭源模型的可行性,更通过技术架构的突破,为 AGI 的普惠化进程提供了坚实的底座支持。数智化转型网www.szhzxw.cn

若您对人工智能感兴趣,可添加数智化转型网小助手思思微信加入人工智能交流群。若您在寻找人工智能供应商,可联系数智化转型网小助手思思(17757154048,微信同号)

思思微信二维码

若您为人工智能服务商,可添加数智化转型网小助手Nora,加入人工智能行业交流群。

Nora微信二维码

若您为人工智能创业者,可添加数智化转型网社群主理人Carina,加入人工智能创业交流群。

Carina微信二维码

声明:本文来自数智化转型网,版权归作者所有。文章内容仅代表作者独立观点,不代表数智化转型网立场,转载目的在于传递更多信息。如有侵权,请联系我们。

底部图片
免责声明: 本网站(http://www.szhzxw.cn/)内容主要来自原创、合作媒体供稿和第三方投稿,凡在本网站出现的信息,均仅供参考。本网站将尽力确保所提供信息的准确性及可靠性,但不保证有关资料的准确性及可靠性,读者在使用前请进一步核实,并对任何自主决定的行为负责。本网站对有关资料所引致的错误、不确或遗漏,概不负任何法律责任。 本网站刊载的所有内容(包括但不仅限文字、图片、LOGO、音频、视频、软件、程序等) 版权归原作者所有。任何单位或个人认为本网站中的内容可能涉嫌侵犯其知识产权或存在不实内容时,请及时通知本站,予以删除。https://www.szhzxw.cn/116490.html
联系我们

联系我们

17717556551

邮箱: editor@cxounion.org

关注微信
微信扫一扫关注我们

微信扫一扫关注我们

关注微博
返回顶部