内媒报道,阿里通义实验室宣布开源Qwen3.6-35B-A3B模型。该款大模型采用稀疏混合专家(MoE)架构,总参数量达350亿,每次推理仅激活30亿参数,具备智能体编程能力。
资料显示,Qwen3.6-35B-A3B在智能体编程方面大幅超越前代模型,可与Qwen3.5-27B和Gemma4-31B等稠密模型竞争,并支持多模态思考能力。
该模型可集成到OpenClaw、ClaudeCode和QwenCode等第三方编程助手中,其开源权重已在HuggingFace和ModelScope平台发布,同时可通过阿里云百链API调用并在QwenStudio体验。(ta/w)
AASTOCKS新闻