阿里开源新架构Qwen3-Next,模型训练成本降9成,长文本推理吞吐提升10倍
阿里通义于9月12日发布下一代基础模型架构Qwen3-Next。该架构针对大模型未来扩展趋势设计,采用全新高稀疏MoE架构,重构Transformer核心组件,实现训练和推理双重性价比突破。基于新架构,“打样”Qwen3-Next-80B-A3B系列模型,性能媲美千问3旗舰版235B模型,计算效率大增,训练成本降超90%。
每经记者 叶晓丹 每经编辑 张益铭
每经杭州9月12日电(记者叶晓丹)9月12日,阿里通义发布下一代基础模型架构Qwen3-Next。Qwen3-Next针对大模型在上下文长度和总参数两方面不断扩展(Scaling)的未来趋势而设计,采用全新的高稀疏MoE架构,并对经典Transformer核心组件进行了重构,创新采用线性注意力和自研门控注意力结合的混合注意力机制,实现了模型训练和推理的双重性价比突破。
基于这一新架构,阿里通义“打样”了Qwen3-Next-80B-A3B系列模型,开源指令(Instruct)和推理(Thinking)两大模型版本。新模型总参数80B仅激活3B,性能可媲美千问3旗舰版235B模型,模型计算效率大幅提升。Qwen3-Next训练成本较密集模型Qwen3-32B大降超90%,长文本推理吞吐量提升10倍以上,并可支持百万Tokens(文本处理的最小单位)超长上下文。
封面图片来源:图片来源:视觉中国-VCG211478193393
责编 张益铭

