腾讯开源手机端离线翻译模型:440MB 支持 33 种语言,效果超越谷歌

2026/04/29 17:00阅读量 8

腾讯混元团队于 4 月 29 日开源了极致量化压缩版翻译模型 Hy-MT1.5-1.8B-1.25bit,将参数量压缩至仅 440MB,可在手机本地离线运行。该模型原生支持 33 种语言和多种方言,在评测中翻译质量优于 Google 翻译等主流系统。腾讯同步推出了适配后台取词模式的 Demo 应用,实现无需联网、无数据上传的本地化翻译体验。

事件概述

4 月 29 日,腾讯混元团队正式开源了基于 Hy-mt1.5 打造的极致量化压缩版本翻译模型 Hy-MT1.5-1.8B-1.25bit。该模型成功将原本庞大的翻译大模型压缩至 440MB(约 0.4GB),实现了在手机端完全离线的流畅运行。

核心信息

  • 模型规模与性能
    • 基础模型为 Hy-mt1.5,拥有 1.8B 参数,原生支持 33 种语言及 5 种方言/民汉,涵盖 1056 个翻译方向。
    • 通过极致的量化技术,模型从 FP16 精度的 3.3GB 内存占用压缩至 440MB。
    • 在严格评测基准下,其翻译质量超越了 Google 翻译等商业 API 及 235B 级大模型,展现了轻量级模型的高效能力。
  • 量化技术方案
    • 针对移动端资源限制,腾讯提供了 2-bit1.25-bit 两种极致量化方案。
    • 量化原理是将模型参数从 16 位数字表示转换为更低位数存储,在大幅减小文件体积的同时保留关键内容精度。
  • 应用场景与功能
    • 腾讯发布了配套的「腾讯混元翻译 Demo 版」,特别适配了后台取词模式
    • 用户可在本地查看邮件或浏览网页时随时调用翻译,无需网络连接,且处理过程完全本地化,不涉及个人信息采集与上传。
    • 该模型此前已在腾讯元宝、腾讯会议、企业微信、QQ 浏览器及客服翻译等多个内部业务场景中落地,并曾在国际机器翻译比赛中获得 30 个第一名。

值得关注

CODE
*   海外用户可通过 Huggingface 获取 Demo 链接。
*   国内用户可通过魔搭社区(ModelScope)获取 Demo 链接。
*   演示设备包括高通骁龙 865 及骁龙 7+ Gen 2 等不同配置的手机,验证了其在不同硬件上的兼容性。
  • 行业意义:此次开源证明了在高效优化下,小参数量的模型能够具备媲美甚至超越大型商业系统的翻译能力,为移动端离线 AI 应用提供了新的技术路径。

准备好启动您的定制项目了吗?

现在咨询,即可获得免费的业务梳理与技术架构建议方案。