翻译软件我们天天用,但背后的模型通常很大,往往需要连接云端服务器才能运行。腾讯这次推出的 HY-MT1.5系列打破了这个限制,推出了两个版本,满足不同场景的需求:
- 1.8B 小尺寸版: 别看它体量小,它在性能上几乎能和体量大得多的模型叫板。经过优化后,它只需要约1GB 的内存就能在手机等端侧设备上流畅运行。翻译50个汉字左右的句子,平均响应时间仅需 0.18秒。
- 7B 升级版: 它是之前获得 WMT25冠军系统的升级版,更擅长处理复杂的混合语言翻译、专业术语解析以及特定的格式翻译,主要面向服务器部署。
为什么它比以前更聪明?
为了让模型更懂人类的语言习惯,腾讯的研究团队采用了“五步走”的训练方法:
- 打好语言基础: 先让模型学习海量的多语言文本,掌握基本的语言规律。
- 专项训练: 专门输入大量的对译数据,让它从“会说话”变成“会翻译”。
- 精雕细琢: 使用高质量的文档数据进行微调,让翻译结果更地道。
- 名师出高徒(蒸馏): 让7B 的大模型带1.8B 的小模型,把大模型的“智慧”传授给小模型,让它体积虽小但大脑依然聪明。
- 人类评判: 最后引入人类的审美标准,针对准确度、流畅度和文化差异进行打分优化。
实测表现:超越部分主流大模型
在多项权威测试中,这套模型的表现非常亮眼:
- 在 WMT25等国际测试中,7B 版本的得分超过了 Gemini3.0Pro 以及许多专业的翻译模型。
- 即便是在“普通话转少数民族语言”这种冷门领域,它的表现依然拔尖。
- 1.8B 版本在人类真实测试中的评分,也超过了百度、谷歌、微软等主流商业翻译系统。
除了翻译得准,HY-MT1.5还解决了一些实际使用中的痛点:
- 术语精准: 你可以告诉它特定的词怎么翻。比如“混元珠”必须翻成“Chaos Pearl”,它就不会自作聪明地翻成别的词。
- 联系上下文: 比如单词“pilot”,没有上下文它可能翻成“飞行员”,但如果这段话是讲美剧的,它能聪明地识别出这是指“试播集”。
- 格式不变: 如果你在翻译一段带有 HTML 标签或特殊格式的代码,它能在翻译内容的同时,完美保留原来的标签结构。
目前,腾讯已经将该模型的权重在GitHub和Hugg
若您对人工智能感兴趣,可添加数字化转型网小助手思思微信加入人工智能交流群。若您在寻找人工智能供应商,可联系数字化转型网小助手思思(17757154048,微信同号)

若您为人工智能服务商,可添加数字化转型网小助手Nora,加入人工智能行业交流群。

若您为人工智能创业者,可添加数字化转型网社群主理人Carina,加入人工智能创业交流群。

声明:本文来自网络,版权归作者所有。文章内容仅代表作者独立观点,不代表数字化转型网立场,转载目的在于传递更多信息。如有侵权,请联系我们。数字化转型网www.szhzxw.cn

本文由数字化转型网(www.szhzxw.cn)转载而成,来源于网络;编辑/翻译:数字化转型网(Professionalism Achieves Leadership 专业造就领导者)默然
