在2026年2月16日,阿里云正式发布新一代大模型Qwen3.5系列,标志着中国开源大模型进入一个以架构创新为核心驱动力的新纪元。这一版本并非简单地延续以往的参数堆叠逻辑,而是完成了一次从纯文本处理到原生多模态理解的底层跃迁。其核心突破在于预训练阶段即引入视觉与文本混合的token序列,使得模型在学习过程中便建立起跨模态的联合表征能力。这种设计让视觉理解不再依赖于外挂模块或后处理流程,而是深度嵌入语言模型的内在机制之中,形成一种统一的认知框架。
这一架构革新直接带来了性能上的质变。在多项权威评测中,如多模态推理(MathVision)、通用视觉问答(RealWorldQA)、文本识别与文件理解(CC_OCR)、空间智能(RefCOCO-avg)以及视频理解(MLVU),Qwen3.5均取得领先成绩。尤其值得注意的是,它能够处理长达2小时、约100万token的视频输入,并实现内容分析与摘要生成,这在当前主流模型中尚属罕见。更进一步地,模型实现了视觉与代码能力的深度融合:用户可通过一张截图精准定位并修复前端界面问题,也可将手绘草图直接转化为可运行的前端代码,真正意义上打通“图像—语义—代码”的全链路生产路径。
在语言支持方面,Qwen3.5实现了对201种语言及方言的全覆盖,涵盖中文、粤语等细分语种的细粒度理解。词表规模从15万扩展至25万,显著提升了小语种和低资源语言的编码效率,最高提升达60%。这意味着全球范围内非英语母语用户的使用体验得到了实质性改善,也为跨国企业、国际组织及本地化服务提供了前所未有的技术基础。这一能力的达成,不仅依赖于数据量的扩充,更源于对语言结构差异性的建模优化,使模型在不同语言间具备更强的迁移与泛化能力。
在性能表现上,尽管总参数量达到3970亿,但实际激活参数仅为170亿,通过自研门控技术与稀疏混合专家(MoE)架构,实现了“以小胜大”的极致效率。在32K上下文场景下,推理吞吐量较前代提升8.6倍;而在256K超长上下文情况下,最大吞吐量更是飙升至19倍。这种效率提升并非来自单纯硬件加速,而是源于对Transformer经典架构的根本性重构——结合线性注意力机制与动态稀疏计算策略,从根本上缓解了传统注意力机制随上下文长度增长而呈平方级上升的算力瓶颈。
与此同时,该模型在通用推理、数学解题、任务规划与智能体(Agent)应用等关键领域展现出超越同类产品的竞争力。在BFCL-V4、Browsecomp等基准测试中,其表现已接近甚至优于GPT-5.2与Gemini 3 Pro。对于开发者而言,这一系列优势意味着更低的部署门槛与运营成本。例如,有海外开发者反馈,使用Qwen3.5-35B-A3B替代Gemini服务,每月支出可由2000欧元降至50欧元,降幅超过97%。这种经济性并非偶然,而是建立在高质量数据与高效架构协同作用之上的必然结果。
值得注意的是,此次发布的不仅是单一模型,而是覆盖全尺寸、全模态的完整生态体系。包括Qwen3.5-122B-A10B、Qwen3.5-35B-A3B、Qwen3.5-27B(Dense)三款中型模型均已开源,且可在魔搭社区、HuggingFace下载,同时通过阿里云百炼平台提供API服务。这些模型在指令遵循、复杂推理、多语言知识掌握等方面的表现,已能与GPT-5 mini、Claude Sonnet 4.5等国际顶尖模型比肩,尤其在智能体工具调用与长程任务规划中表现出色。
从产业层面看,这一进展也反映出中国企业在大模型演进路径上的深层思考。当全球头部厂商仍在围绕“参数规模”与“训练数据量”展开军备竞赛时,阿里千问选择了一条更为理性的道路——以第一性原理重新审视模型的本质需求。在算力成本逼近临界点的背景下,单纯依靠“Scaling Law”已难以为继。真正的突破来自于对注意力机制、前馈网络结构、训练范式乃至数据分布的系统性重构。正如其团队所言:“架构+数据质量 > 原始参数。” 这一理念的实践,正在重塑行业对“高性能”定义的标准。
截至2026年2月25日,国际市场调研机构沙利文报告显示,中国企业级大模型日均调用量中,千问(Qwen)占比已达32.1%,相较上半年几乎翻倍,领先于字节豆包、DeepSeek等竞争对手。这一市场地位的迅速确立,背后是持续迭代的技术实力与开放生态的双重支撑。自2023年以来,千问已开源400多个模型,下载量突破10亿次,衍生模型超过20万,构建起全球最大最活跃的开源模型社区之一。
当前,随着Qwen3.5-Plus在移动端与PC端的全面接入,以及对201种语言与多模态能力的深度整合,大模型正从“单向对话工具”逐步演化为具备感知、理解、推理与执行能力的复合型智能体。它不再只是回答问题的助手,而是成为跨越语言鸿沟、连接视觉世界与数字世界的中枢节点。这一转变,不仅是技术的升级,更是人机交互范式的一次根本性重构。