最近,关于人工智能架构起源的激烈争论在社交媒体上成为热门话题。Mistral的首席执行官Arthur Mensch(常被称为“OpenAI的欧洲版”)在一次采访中表示,中国开发的强大开源模型DeepSeek-V3实际上是基于Mistral提出的架构构建的。这一声明立即引起了全球开发者和网民的广泛关注和怀疑。
核心争议:这是“致敬”还是“自我创新”?
Arthur Mensch 在采访中提到,Mistral 于 2024 年初发布了首个稀疏专家混合模型(MoE),他认为后续版本的 DeepSeek 都是建立在这个基础上的,并表示它们“采用了相同的架构”。
然而,谨慎的网民通过审查arXiv上的原始论文发现了疑问:
时间冲突:Mixtral的论文和DeepSeek的MoE论文的发表日期仅相差三天,难以确定谁真正影响了谁。
不同的架构方法:虽然两者都属于稀疏专家混合系统(SMoE),Mixtral 更侧重于工程优化,而 DeepSeek 则对算法进行了深度重建。
不同的专家设计:DeepSeek引入了“细粒度专家细分”和“共享专家”机制,将常识与特定知识分离,这与Mixtral的扁平专家设计有根本不同。
技术逆转:谁在“改写历史”?
有趣的是,争议很快逆转了局面。一些技术专家指出,DeepSeek并非从Mistral汲取灵感,而是相反的情况。
架构回归:网民发现,2025年底发布的Mistral3Large核心架构与DeepSeek-V3中使用的MLA等创新技术高度相似。
影响力转移:网友们开玩笑说Mistral似乎在试图“改写历史”以恢复失去的技术领导地位,因为DeepSeek显然在MoE架构创新中获得了更大的行业影响力。
在AI世界里,是“集体进步”还是“口头战”?
尽管存在争议,正如Mensch在采访前半部分所说,开源精神的核心在于“基于彼此的持续进步”。
竞争加剧:据报道,DeepSeek已将以2026年春节假期为目标,准备推出更强劲的新车型。
开源竞争:Mistral 也在不断更新其 Devstral 家族,力图重新夺回开源编程智能领域的顶尖地位。
若您对人工智能感兴趣,可添加数字化转型网小助手思思微信加入人工智能交流群。若您在寻找人工智能供应商,可联系数字化转型网小助手思思(17757154048,微信同号)

若您为人工智能服务商,可添加数字化转型网小助手Nora,加入人工智能行业交流群。

若您为人工智能创业者,可添加数字化转型网社群主理人Carina,加入人工智能创业交流群。

声明:本文来自网络,版权归作者所有。文章内容仅代表作者独立观点,不代表数字化转型网立场,转载目的在于传递更多信息。如有侵权,请联系我们。数字化转型网www.szhzxw.cn

本文由数字化转型网(www.szhzxw.cn)转载而成,来源于网络;编辑/翻译:数字化转型网(Professionalism Achieves Leadership 专业造就领导者)默然
