HY-1.8B-2Bit – 腾讯混元推出的首个产业级2Bit端侧模型

AI项目 2026-02-10

HY-1.8B-2Bit是什么

HY-1.8B-2Bit是腾讯混元推出的首个产业级2Bit端侧大模型,模型基于1.8B模型经量化感知训练(QAT)压缩推出。HY-1.8B-2Bit等效参数量仅0.3B,大小仅300MB,内存占用600MB,比常用手机应用还小。在保持原模型全思考能力的同时,生成速度提升2-3倍,已适配Arm SME2等移动平台,可在手机、耳机、智能家居等边缘设备上高效运行,实现”小而强”的端侧AI部署突破。

HY-1.8B-2Bit

HY-1.8B-2Bit的主要功能

  • 端侧智能推理:模型支持在手机、耳机、智能家居等消费级硬件上离线部署运行大语言模型,无需依赖云端服务。
  • 全思考能力:沿用原模型的长短思维链灵活切换机制,根据任务复杂度自动选择简洁或详细的推理路径。
  • 高效文本生成:在真实端侧设备上相比原始精度模型实现2-3倍的生成速度提升,大幅降低用户等待时间。
  • 隐私安全保护:模型完全本地运行确保用户数据不出设备,满足离线部署和高私密性场景的安全需求。

HY-1.8B-2Bit的技术原理

  • 量化感知训练(QAT):不同于传统训练后量化(PTQ)在模型训练完成后直接压缩带来的巨大精度损失,QAT在训练过程中就模拟2Bit量化的前向传播效应,使模型权重主动适应低精度约束,显著恢复量化后的模型性能。
  • 2Bit极端压缩与等效降参:通过将32位浮点权重压缩至2Bit表示(仅4种离散状态),模型实际大小从原1.8B参数的GB级降至300MB,等效参数量仅0.3B,实现6倍存储压缩比,同时保持与4Bit PTQ相当的数学、代码和科学推理能力。
  • 数据与训练策略优化:采用数据优化、弹性拉伸量化及训练策略创新三种方法协同提升模型全科能力,其中弹性拉伸量化通过动态调整权重分布的量化范围,最大限度减少极端值带来的精度损失。
  • 端侧硬件适配:提供GGUF-INT2格式权重与BF16伪量化权重,针对Arm SME2指令集进行深度优化,使模型能在启用该技术的移动设备上实现高效稳定推理。

HY-1.8B-2Bit的项目地址

  • GitHub仓库:https://github.com/Tencent/AngelSlim
  • HuggingFace模型库
    • https://huggingface.co/AngelSlim/HY-1.8B-2Bit-GGUF
    • https://huggingface.co/AngelSlim/HY-1.8B-2Bit
  • 技术论文:https://huggingface.co/AngelSlim/HY-1.8B-2Bit/blob/main/AngelSlim_Technical_Report.pdf

HY-1.8B-2Bit的应用场景

  • 智能手机助手:作为内置AI助手实现离线语音交互、文本生成和智能问答,无需联网即可处理日程管理、邮件起草等日常任务,保护用户隐私的同时降低流量消耗。
  • 智能穿戴设备:模型能部署于智能耳机、手表等低功耗设备,支持离线语音转文字、实时翻译和健康咨询,解决穿戴设备算力受限和续航敏感的痛点。
  • 智能家居中控:在智能音箱、家电控制器等IoT设备上本地运行,实现离线语音指令识别、场景联动控制和个性化推荐,提升响应速度并保障家庭数据安全。
  • 车载边缘计算:应用在车机系统和自动驾驶辅助设备,确保网络不稳定场景下的服务连续性。
  • 企业私有化部署:模型能满足金融、医疗、政务等对数据合规要求极高的行业,在本地服务器或专用终端上实现敏感文档处理、专业知识问答,杜绝数据外传风险。
©️版权声明:若无特殊声明,本站所有文章版权均归AI工具集原创和所有,未经许可,任何个人、媒体、网站、团体不得转载、抄袭或以其他方式复制发表本站内容,或在非我站所属的服务器上建立镜像。否则,我站将依法保留追究相关法律责任的权利。

相关文章