腾讯混元今日宣布正式开源其翻译模型1.5版本。本次更新共包含两个不同尺寸的模型:Tencent-HY-MT1.5-1.8B 和 Tencent-HY-MT1.5-7B,旨在通过极致的效率与领先的翻译质量,重新定义端云协同的翻译体验。
核心亮点:端侧部署与卓越性能
本次发布的 1.8B 模型 表现尤为亮眼。作为一款面向手机等消费级设备设计的轻量化模型,它在经过量化处理后,仅需 1GB 内存 即可实现离线流畅运行。数字化转型网www.szhzxw.cn
- 极致速度:处理50个 tokens 的平均耗时仅为 0.18秒,远快于主流商用翻译 API 的0.4秒。
- 跨级表现:在 FLORES-200等权威测试集中,其效果达到了 Gemini-3.0-Pro 等超大尺寸闭源模型的90分位水平,全面超越了中等尺寸开源模型。
全面覆盖:从主流语种到方言民汉
混元翻译模型1.5支持包括中、英、日、法等 33个全球语种 的互译,并特别加强了对捷克语、爱沙尼亚语、冰岛语等小语种的支持。此外,模型还涵盖了 5种国内民汉语言及方言,极大拓宽了 AI 翻译的应用边界。数字化转型网www.szhzxw.cn
功能进化:更具实操性的翻译体验
针对实际应用场景,1.5版本在三个维度进行了重磅升级:
- 自定义术语库:用户可针对医学、法律、金融等专业领域上传术语表,确保专业词汇翻译的一致性。
- 上下文理解:具备先进的长文本对话理解能力,能基于前文语境优化后续结果,避免语义断裂。
- 格式保持能力:通过精准的指令遵循,模型可以在翻译后完美保持原始文本(如网页、代码、Markdown)的格式。
技术突破:大模型引导小模型
HY-MT1.5-1.8B 之所以能以小博大,得益于腾讯采用的 On-Policy Distillation(大尺寸模型蒸馏) 策略。由7B 尺寸的“老师”模型实时引导“学生”模型,帮助其从预测偏移中学习,而非单纯死记硬背答案,从而显著提升了小模型的逻辑与翻译能力。数字化转型网www.szhzxw.cn
开发者生态:多平台全面支持
目前,腾讯混元翻译模型1.5均已在腾讯混元官网上线,并在Github及HuggingFace开源社区开放下载。模型已适配 Arm、高通、Intel 及沐曦等主流计算平台。
从腾讯会议到企业微信,腾讯混元翻译技术已在内部多个高并发场景落地。随着1.5版本的开源,腾讯正进一步推动高质量 AI 翻译技术走向普惠,为全球开发者提供更具性价比的翻译方案。
若您对人工智能感兴趣,可添加数字化转型网小助手思思微信加入人工智能交流群。若您在寻找人工智能供应商,可联系数字化转型网小助手思思(17757154048,微信同号)

若您为人工智能服务商,可添加数字化转型网小助手Nora,加入人工智能行业交流群。

若您为人工智能创业者,可添加数字化转型网社群主理人Carina,加入人工智能创业交流群。

声明:本文来自网络,版权归作者所有。文章内容仅代表作者独立观点,不代表数字化转型网立场,转载目的在于传递更多信息。如有侵权,请联系我们。数字化转型网www.szhzxw.cn

本文由数字化转型网(www.szhzxw.cn)转载而成,来源于网络;编辑/翻译:数字化转型网(Professionalism Achieves Leadership 专业造就领导者)默然
