Qwen3.6-35B-A3B – 阿里通义开源的混合专家 MoE 模型

AI项目 2026-04-17

Qwen3.6-35B-A3B是什么

Qwen3.6-35B-A3B是阿里通义千问团队推出的开源混合专家(MoE)模型,总参数量350亿,激活参数30亿。模型主打极致推理效率与智能体编程能力,在多项编程基准测试中超越参数规模更大的稠密模型Qwen3.5-27B,显著优于谷歌最新发布的Gemma 4系列模型。作为Qwen3.6系列的首个开源版本,原生支持多模态感知与推理,视觉语言能力已与Claude Sonnet 4.5持平甚至部分超越,是当前最具通用性的开源模型之一。

Qwen3.6-35B-A3B

Qwen3.6-35B-A3B的主要功能

  • 智能体编程:模型具备卓越的Agentic Coding能力,在SWE-bench、Terminal-Bench等编程基准上表现优异,可无缝集成到OpenClawClaude Code、Qwen Code等第三方编程助手中。
  • 多模态感知与推理:原生支持视觉语言理解,在MMMU、RealWorldQA等视觉问答基准上表现突出,空间智能优势显著(RefCOCO 92.0、ODInW13 50.8)。
  • 双模式推理:支持思考模式(复杂推理)与非思考模式(快速响应)灵活切换,适应不同任务场景需求。
  • 高效推理:采用稀疏MoE架构,仅激活30亿参数即可实现与数倍规模稠密模型相当的性能,大幅降低推理成本。
  • 工具调用与MCP支持:支持函数调用、代码解释器及MCP(Model Context Protocol),可连接外部工具和API完成复杂任务。
  • 长上下文处理:支持200K上下文窗口,能够处理长文档理解、长程代码生成等任务。

如何使用Qwen3.6-35B-A3B

  • 在线体验:访问 Qwen Studio 官网(https://chat.qwen.ai/),无需注册可直接开始对话,支持文本与图片输入,即时体验模型的编程与多模态能力。
  • API 调用(生产部署)
    • 阿里云百炼平台:登录阿里云百炼控制台,选择模型 qwen3.6-flash 创建 API Key。支持标准 OpenAI 协议(Chat Completions/Responses API)及 Anthropic 协议,可无缝替换现有 GPT/Claude 接口。调用时建议开启 preserve_thinking 参数以保留思维链,优化智能体任务表现。
    • 本地部署:从 Hugging Face下载开源权重,使用 vLLM、Ollama 或 Transformers 加载。
  • 第三方工具集成
    • OpenClaw:在配置文件中设置 Base URL 为阿里云百炼端点,填入 API Key,选择模型名称 qwen3.6-flash,即可在终端中使用该模型替代默认编码助手。
    • Qwen Code:专为 Qwen 系列优化的开源终端 AI 智能体,首次运行输入 /auth 完成阿里云百炼认证,系统自动识别并调用 Qwen3.6-35B-A3B 进行代码生成与工具调用。
    • Claude Code:因 API 兼容 Anthropic 协议,可直接在 Claude Code 配置中替换端点地址与模型名称,获得具备视觉能力的编码体验。

Qwen3.6-35B-A3B的关键信息和使用要求

  • 开源协议:模型权重完全开源,支持本地部署与商用,可在Hugging Face和ModelScope平台下载。
  • 在线体验:通过Qwen Studio可直接交互对话,无需部署可体验完整功能。
  • API调用:即将支持阿里云百炼API,调用名称为qwen3.6-flash,兼容OpenAI规范的Chat Completions和Responses API,以及Anthropic API协议。
  • 硬件要求:相比稠密模型大幅降低本地部署门槛,仅需支持30亿激活参数的显存即可运行,适合个人开发者本地部署。
  • 第三方集成:已适配OpenClaw(Moltbot)、Qwen Code、Claude Code等主流AI编程助手,可直接接入现有开发工作流。
  • 特色功能:API支持preserve_thinking参数,可在消息中保留前序轮次的思维内容,推荐用于复杂智能体任务。

Qwen3.6-35B-A3B的核心优势

  • 极致参数效率:3B激活参数可在编程、推理任务上超越27B稠密模型,实现”小身材大能量”的推理经济性。
  • 顶尖智能体编程能力:在SWE-bench Verified(73.4)、Terminal-Bench 2.0(51.5)等权威编程基准上领先同规模甚至更大规模模型。
  • 视觉能力对标闭源模型:多模态表现与Claude Sonnet 4.5持平,空间智能(RefCOCO 92.0)和文档理解能力尤为突出。
  • 全场景生态兼容:同时支持OpenAI与Anthropic API协议,可无缝替换现有工作流中的模型,降低迁移成本。

Qwen3.6-35B-A3B的项目地址

  • HuggingFace模型库:https://huggingface.co/Qwen/Qwen3.6-35B-A3B

Qwen3.6-35B-A3B的同类竞品对比

对比维度 Qwen3.6-35B-A3B Qwen3.5-27B Gemma 4-31B
架构类型 MoE(稀疏) Dense(稠密) Dense(稠密)
总参数量 35B 27B 31B
激活参数量 3B 27B(全激活) 31B(全激活)
SWE-bench Verified 73.4 75.0 52.0
Terminal-Bench 2.0 51.5 41.6 42.9
MMMU(多模态) 81.7 82.3 80.4
RealWorldQA 85.3 83.7 72.3
开源协议 Apache 2.0(可商用) Apache 2.0 Apache 2.0
上下文长度 200K 128K 128K
多模态支持 原生支持 需额外适配 部分支持
智能体优化 深度优化 基础支持 基础支持
部署成本 低(仅需3B显存) 高(需27B显存) 高(需31B显存)

Qwen3.6-35B-A3B的应用场景

  • AI辅助编程:自动化代码生成、Bug修复、代码重构及代码审查,可集成到IDE作为智能编程助手使用。
  • 智能体开发:构建能够调用工具、浏览网页、执行代码的自主Agent,用于自动化运维、数据分析等工作流。
  • 多模态内容理解:处理图文混合的文档分析、图表解读、视觉问答及视频内容理解任务。
  • 端侧与边缘部署:因激活参数少、推理效率高,适合部署在资源受限的端侧设备或边缘服务器上提供本地化AI服务。
  • 教育科研:作为开源基座模型用于学术研究、算法教学或领域特定的微调训练。
©️版权声明:若无特殊声明,本站所有文章版权均归AI工具集原创和所有,未经许可,任何个人、媒体、网站、团体不得转载、抄袭或以其他方式复制发表本站内容,或在非我站所属的服务器上建立镜像。否则,我站将依法保留追究相关法律责任的权利。

相关文章