腾讯混元开源440MB离线翻译模型:33种语言手机本地运行,效果超越谷歌翻译
离线翻译正从“勉强可用”迈向“真正好用”的阶段。
对于出国旅行、跨境办公和阅读本地内容而言,一旦翻译工具依赖联网,在弱网、无网或涉及隐私敏感的场景中,便极易掉链子。
然而,将翻译大模型真正塞入手机,又面临内存和算力的双重制约:模型体积过大、推理速度太慢,都难以常驻本地运行。
为攻克这一难题,腾讯混元团队近日开源了一套硬核解决方案:
他们推出了极致量化压缩版本的翻译模型Hy-MT1.5-1.8B-1.25bit,将支持33种语言的翻译大模型压缩至440MB。
该模型无需联网,下载后即可在手机本地运行。官方测试显示,其翻译质量优于谷歌翻译。

△ 高通骁龙865,8GB内存
基于混元翻译大模型Hy-MT1.5打造,翻译效果比肩商业翻译模型
Hy-MT1.5是腾讯混元团队研发的专业翻译大模型,原生支持33种语言、5种方言/民汉语言及1056个翻译方向。无论是常见的中英互译,还是法语、日语、阿拉伯语、俄语,乃至藏语、蒙古语等少数民族语言,它都能从容应对。
值得注意的是,1.8B版本的Hy-MT1.5 在翻译效果上已能与商业翻译API以及235B级的大模型相媲美。
在严格的评测基准中,其翻译质量不仅超越了谷歌翻译、百度翻译等主流系统,更证明了在高效优化下,轻量级模型也能展现出令人瞩目的翻译能力。

但问题同样直接:原始的1.8B模型即使在FP16精度下,仍然占用3.3GB内存。对于手机中宝贵的存储空间而言,这依然太大、太慢,因此必须进行量化压缩。
极致量化压缩,把模型装进手机
量化压缩,简而言之,就是将模型原本用16位数字(16-bit)表示的参数,改用更低位的数字来存储。
这好比把一张高清照片压缩成缩略图,文件体积大幅减小,但核心内容依然清晰可辨。
针对不同手机用户,腾讯特别推出了2-bit与1.25-bit两种极致的量化压缩方案。

2-bit模型:性能与质量的平衡(适用中高端机型)
2-bit模型采用了业界领先的拉伸弹性量化(SEQ)技术,将模型参数量化至{-1.5,-0.5,0.5,1.5},并结合量化感知蒸馏,在将模型体积压缩至574MB的同时,实现了几乎无损的翻译质量,效果超越上百GB的大模型。在支持Arm SME2技术的移动设备上,2-bit模型可实现更快速、更高效的推理。

△ 2-bit模型在SME2及Neon内核的速度对比演示
1.25-bit模型:Sherry极致压缩(适用全系机型)
为达成极致的轻量化,腾讯推出了基于Sherry(稀疏高效三值量化)技术的1.25-bit模型。该技术方案已被NLP顶级学术会议ACL 2026录用。
Sherry压缩方案的核心逻辑在于“细粒度稀疏”策略:每4个模型参数中,3个最重要的用1-bit存储,1个用0存储,平均每个参数仅需1.25-bit。

配合腾讯专为手机CPU设计的STQ内核,该方案实现了对SIMD指令集的适配。最终,3.3GB的原始模型被进一步压缩至440MB,可以轻松常驻后台,让内存紧张的普通手机也能顺畅进行高质量离线翻译。
FP16(八倍速)vs. 1.25-bit速度对比演示:

△ 演示设备:高通骁龙888,8GB内存
本次开源不仅包含模型权重,腾讯混元团队还制作了一个实际可用的腾讯混元翻译Demo版,特别适配了“后台取词模式”。无论是在本地查看邮件还是浏览网页,混元翻译都能随叫随到。无需网络,无需订阅,完全本地处理、不涉及个人信息采集和上传,一次下载即可永久使用。

所有模型权重、代码及技术报告均已全面开源(目前仅支持安卓体验Demo,后续正式版将添加对iOS等平台的支持)。
体验链接:
– Hugging Face(海外用户):https://huggingface.co/AngelSlim/Hy-MT1.5-1.8B-1.25bit-GGUF/resolve/main/Hy-MT-demo.apk
– 魔搭社区(国内用户):https://modelscope.cn/models/AngelSlim/Hy-MT1.5-1.8B-1.25bit-GGUF/resolve/master/Hy-MT-demo.apk
模型下载:
– Huggingface(海外用户):
– 2-bit 模型权重:https://huggingface.co/AngelSlim/Hy-MT1.5-1.8B-2bit
– 2-bit 模型gguf:https://huggingface.co/AngelSlim/Hy-MT1.5-1.8B-2bit-GGUF
– 1.25-bit 模型权重:https://huggingface.co/AngelSlim/Hy-MT1.5-1.8B-1.25bit
– 魔搭社区(国内用户):
– 2-bit 模型权重:https://modelscope.cn/models/AngelSlim/Hy-MT1.5-1.8B-2bit
– 2-bit 模型gguf:https://modelscope.cn/models/AngelSlim/Hy-MT1.5-1.8B-2bit-GGUF
– 1.25-bit 模型权重:https://modelscope.cn/models/AngelSlim/Hy-MT1.5-1.8B-1.25bit
– 1.25-bit 模型gguf:https://modelscope.cn/models/AngelSlim/Hy-MT1.5-1.8B-1.25bit-GGUF
技术报告:
– Sherry论文地址:https://arxiv.org/abs/2601.07892
– AngelSlim技术报告:https://arxiv.org/abs/2602.21233
– Hy-MT1.5技术报告:https://arxiv.org/abs/2512.24092
代码仓库:
– AngelSlim:https://github.com/tencent/AngelSlim
关注“鲸栖”小程序,掌握最新AI资讯
本文来自网络搜集,不代表鲸林向海立场,如有侵权,联系删除。转载请注明出处:http://www.itsolotime.com/archives/32877

