💡
原文中文,约1400字,阅读约需4分钟。
📝
内容提要
腾讯混元推出了开源的离线翻译模型Hy-MT1.5-1.8B-1.25bit,支持33种语言,压缩至440MB,翻译质量优于谷歌翻译。该模型可在手机本地运行,无需网络,适用于多种业务场景,并提供量化压缩方案,确保高效使用内存。
🎯
关键要点
-
腾讯混元推出了开源的离线翻译模型Hy-MT1.5-1.8B-1.25bit,支持33种语言。
-
该模型压缩至440MB,翻译质量优于谷歌翻译。
-
Hy-MT1.5模型基于混元翻译大模型,支持多种语言和方言,能够处理多达1056个翻译方向。
-
通过量化压缩,模型的内存占用大幅降低,适合在手机上使用。
-
腾讯推出了2-bit与1.25-bit两种量化压缩方案,以满足不同用户需求。
-
混元翻译模型在国际机器翻译比赛中表现优异,并已在多个腾讯业务场景中应用。
❓
延伸问答
腾讯的离线翻译模型支持哪些语言?
该模型支持33种语言,包括中英互译、法语、日语、阿拉伯语、俄语等。
Hy-MT1.5模型的内存占用是多少?
经过量化压缩后,Hy-MT1.5模型的内存占用为440MB。
腾讯的离线翻译模型与谷歌翻译相比如何?
该模型的翻译质量优于谷歌翻译。
量化压缩的原理是什么?
量化压缩是将模型参数从16位数字转为更低位数字,以减少内存占用。
腾讯混元翻译模型在实际应用中有哪些场景?
该模型已在腾讯的元宝、腾讯会议、企业微信、QQ浏览器等多个业务场景中应用。
如何获取腾讯的离线翻译模型?
用户可以通过Huggingface或魔搭社区下载腾讯混元翻译Demo版。
➡️