Hy-MT1.5-1.8B-1.25bit – 腾讯混元开源的手机端离线翻译模型

AI项目 2026-04-30

Hy-MT1.5-1.8B-1.25bit是什么

Hy-MT1.5-1.8B-1.25bit 是腾讯混元团队推出的极致量化压缩版手机端离线翻译大模型。模型基于混元翻译大模型 Hy-MT1.5-1.8B(18亿参数)打造,通过创新的 Sherry 稀疏三值量化技术 将模型压缩至仅 440MB,支持 33种语言、5种方言/民汉 及 1056个翻译方向,无需联网可在手机本地运行,翻译质量超越谷歌翻译等主流商业系统。

Hy-MT1.5-1.8B-1.25bit

Hy-MT1.5-1.8B-1.25bit的主要功能

  • 33种语言离线互译:覆盖中英、法日、阿拉伯语、俄语等主流语言,以及藏语、蒙古语等少数民族语言,共1056个翻译方向。
  • 手机端本地运行:下载模型后即可完全离线翻译,无需网络连接,不消耗流量。
  • 后台取词翻译:配套Demo支持”后台取词模式”,在浏览网页、查看邮件时可随时调用翻译。
  • 文本实时翻译:输入或粘贴文本后快速生成翻译结果,支持复制输出。
  • 多语言方向切换:支持任意语言对之间的双向翻译切换。

Hy-MT1.5-1.8B-1.25bit的技术原理

  • 基础模型:基于腾讯混元翻译大模型 Hy-MT1.5-1.8B(1.8B参数),该模型通过”通用预训练→MT定向预训练→监督微调→在线蒸馏→强化学习”多阶段训练框架打造。
  • Sherry 稀疏三值量化(1.25-bit):采用细粒度稀疏策略,每4个参数中3个用1-bit存储(取值为-1或1),1个置为0,平均每个参数仅需 1.25 bit。
  • STQ 专用内核:腾讯专为手机CPU设计的稀疏三值量化推理内核,完美适配 SIMD 指令集,实现高效解码。
  • 量化感知训练(QAT):通过训练中的分布对齐与偏移优化,缓解超低比特量化带来的精度损失。
  • GRPO 强化学习:采用Group Relative Policy Optimization算法,结合多维度评分标准(准确性、流畅度、一致性、文化适配性、可读性)优化翻译质量。

如何使用Hy-MT1.5-1.8B-1.25bit

  • 下载安装:从魔搭社区 https://modelscope.cn/models/AngelSlim/Hy-MT1.5-1.8B-1.25bit-GGUF/resolve/master/Hy-MT-demo.apk 或 HuggingFace 下载 Demo APK 并安装。
  • 启动加载:首次打开自动加载 440MB 模型,加载完成后即可使用。
  • 文本翻译:输入或粘贴文本,点击 Translate 可离线翻译;点击底部语言栏可切换翻译方向。
  • 后台取词:在其他 App 中长按选中文本,选择”离线翻译”,悬浮窗直接显示结果,无需跳转。

Hy-MT1.5-1.8B-1.25bit的关键信息和使用要求

  • 发布方:腾讯混元团队
  • 模型参数:1.8B
  • 量化精度:1.25-bit(Sherry稀疏三值量化)
  • 模型体积:440MB
  • 支持平台:安卓(Demo版),iOS正式版后续支持
  • 开源协议:模型权重、代码、技术报告全面开源
  • 系统:安卓手机(Demo版暂不支持iOS)
  • 内存:建议8GB及以上(演示设备为骁龙865/888/7+Gen2,8GB/16GB内存)
  • 存储:预留约500MB空间下载模型
  • 网络:首次下载模型需联网,之后可完全离线使用

Hy-MT1.5-1.8B-1.25bit的核心优势

  • 极致轻量化:模型仅 440MB,原始FP16版本为3.3GB,压缩比约 7.5倍,普通手机可常驻后台。
  • 翻译质量高:在Flores-200、WMT25等基准上,1.8B原始模型已超越谷歌翻译、百度翻译、微软翻译等商业API和Tower-Plus-72B、Qwen3-32B等更大开源模型;1.25bit量化版在保持极小体积的同时,质量损失可控。
  • 推理速度快:配合STQ内核,在骁龙888手机上翻译速度比FP16版本快约 8倍(1.9秒 vs 58.2秒)。
  • 全离线零隐私:完全本地处理,无需上传任何数据,无订阅费用,一次下载永久使用。
  • 硬件适配友好:1.25bit方案对SIMD指令集友好,全系安卓机型均可流畅运行。

Hy-MT1.5-1.8B-1.25bit的项目地址

  • HuggingFace模型库:https://huggingface.co/AngelSlim/Hy-MT1.5-1.8B-1.25bit
  • arXiv技术论文:https://arxiv.org/pdf/2512.24092

Hy-MT1.5-1.8B-1.25bit的同类竞品对比

对比维度 Hy-MT1.5-1.8B-1.25bit Tower-Plus-72B 谷歌翻译 (Google Translate API)
产品定位 端侧离线翻译大模型 开源翻译专用大模型 商业云端翻译服务
发布方 腾讯混元 Unbabel / 社区 Google
模型体积 440 MB 145 GB 云端部署(无本地体积)
参数量 1.8B 72B 未公开
运行方式 手机本地离线运行 需服务器 / A100 等高性能 GPU 云端 API 调用
联网需求 ❌ 完全不需要 ✅ 需部署在服务器 ✅ 必须联网
支持语言 33 种 + 5 种方言/民汉 多语言 100+ 种语言
Flores-200 (ZH↔XX) 82.2 79.7 69.3
Flores-200 (EN↔XX) 87.4 86.2 77.0
WMT25 57.0 41.0 38.9
Minority↔Mandarin 59.1 35.4 33.4
推理速度 极快(骁龙888仅 1.9 秒 慢(72B 大模型推理成本高) 依赖网络延迟(通常 1–3 秒)

Hy-MT1.5-1.8B-1.25bit的应用场景

  • 境外出行:无网络环境(偏远地区、飞机、地铁)下的菜单、路牌、对话实时翻译,解决境外信号不稳定痛点。
  • 商务办公:离线处理涉外邮件、合同文档,敏感商业信息完全本地处理,杜绝数据上传风险。
  • 少数民族沟通:支持藏语、蒙古语、维吾尔语等民汉互译,服务边疆地区日常交流与政务办理。
  • 学术研究:本地阅读外文文献、论文,随时取词翻译,保护学术隐私与知识产权。
  • 日常阅读:离线浏览外文网页、社交媒体、电子书,无需流量即可获取高质量译文。
©️版权声明:若无特殊声明,本站所有文章版权均归AI工具集原创和所有,未经许可,任何个人、媒体、网站、团体不得转载、抄袭或以其他方式复制发表本站内容,或在非我站所属的服务器上建立镜像。否则,我站将依法保留追究相关法律责任的权利。

相关文章