数智化转型网szhzxw.cn 人工智能资讯 人工智能资讯|谁是谁的老师?Mistral 首席执行官表示,Deepseek 的架构灵感来自他们,这引发了科技界的讨论

人工智能资讯|谁是谁的老师?Mistral 首席执行官表示,Deepseek 的架构灵感来自他们,这引发了科技界的讨论

最近,关于人工智能架构起源的激烈争论在社交媒体上成为热门话题。Mistral的首席执行官Arthur Mensch(常被称为“OpenAI的欧洲版”)在一次采访中表示,中国开发的强大开源模型DeepSeek-V3实际上是基于Mistral提出的架构构建的。这一声明立即引起了全球开发者和网民的广泛关注和怀疑。

核心争议:这是“致敬”还是“自我创新”?

Arthur Mensch 在采访中提到,Mistral 于 2024 年初发布了首个稀疏专家混合模型(MoE),他认为后续版本的 DeepSeek 都是建立在这个基础上的,并表示它们“采用了相同的架构”。

然而,谨慎的网民通过审查arXiv上的原始论文发现了疑问:

时间冲突:Mixtral的论文和DeepSeek的MoE论文的发表日期仅相差三天,难以确定谁真正影响了谁。

不同的架构方法:虽然两者都属于稀疏专家混合系统(SMoE),Mixtral 更侧重于工程优化,而 DeepSeek 则对算法进行了深度重建。

不同的专家设计:DeepSeek引入了“细粒度专家细分”和“共享专家”机制,将常识与特定知识分离,这与Mixtral的扁平专家设计有根本不同。

技术逆转:谁在“改写历史”?

有趣的是,争议很快逆转了局面。一些技术专家指出,DeepSeek并非从Mistral汲取灵感,而是相反的情况。

架构回归:网民发现,2025年底发布的Mistral3Large核心架构与DeepSeek-V3中使用的MLA等创新技术高度相似。

影响力转移:网友们开玩笑说Mistral似乎在试图“改写历史”以恢复失去的技术领导地位,因为DeepSeek显然在MoE架构创新中获得了更大的行业影响力。

在AI世界里,是“集体进步”还是“口头战”?

尽管存在争议,正如Mensch在采访前半部分所说,开源精神的核心在于“基于彼此的持续进步”。

竞争加剧:据报道,DeepSeek已将以2026年春节假期为目标,准备推出更强劲的新车型。

开源竞争:Mistral 也在不断更新其 Devstral 家族,力图重新夺回开源编程智能领域的顶尖地位。

若您对人工智能感兴趣,可添加数字化转型网小助手思思微信加入人工智能交流群。若您在寻找人工智能供应商,可联系数字化转型网小助手思思(17757154048,微信同号)

此图片的alt属性为空;文件名为image-82.png

若您为人工智能服务商,可添加数字化转型网小助手Nora,加入人工智能行业交流群。

此图片的alt属性为空;文件名为image-83.png

若您为人工智能创业者,可添加数字化转型网社群主理人Carina,加入人工智能创业交流群。

此图片的alt属性为空;文件名为image-84.png

声明:本文来自网络,版权归作者所有。文章内容仅代表作者独立观点,不代表数字化转型网立场,转载目的在于传递更多信息。如有侵权,请联系我们。数字化转型网www.szhzxw.cn

此图片的alt属性为空;文件名为image-12.png

本文由数字化转型网(www.szhzxw.cn)转载而成,来源于网络;编辑/翻译:数字化转型网(Professionalism Achieves Leadership 专业造就领导者)默然

免责声明: 本网站(http://www.szhzxw.cn/)内容主要来自原创、合作媒体供稿和第三方投稿,凡在本网站出现的信息,均仅供参考。本网站将尽力确保所提供信息的准确性及可靠性,但不保证有关资料的准确性及可靠性,读者在使用前请进一步核实,并对任何自主决定的行为负责。本网站对有关资料所引致的错误、不确或遗漏,概不负任何法律责任。 本网站刊载的所有内容(包括但不仅限文字、图片、LOGO、音频、视频、软件、程序等) 版权归原作者所有。任何单位或个人认为本网站中的内容可能涉嫌侵犯其知识产权或存在不实内容时,请及时通知本站,予以删除。https://www.szhzxw.cn/106937.html
联系我们

联系我们

17717556551

邮箱: editor@cxounion.org

关注微信
微信扫一扫关注我们

微信扫一扫关注我们

关注微博
返回顶部