马年四大热门模型齐聚阿里云Coding Plan!海量Token供应,自由切换体验佳。
鹭羽 发自 凹非寺
量子位 | 公众号 QbitAI
一哥就有一哥样。
国内AI云领头羊阿里云近期动作频频——一口气推出了Qwen3.5、GLM-5、MiniMax M2.5及Kimi K2.5四款顶级开源模型。
一口气上线Qwen3.5、GLM-5、MiniMax M2.5、Kimi K2.5四大顶尖开源模型。
阿里云反应迅速,复工首日便将春节档最热门的几大模型悉数收入囊中。

而这四款模型,显然也很有说法:
Qwen3.5作为阿里自主研发的新品,在性能上超越同级其他开源模型,并能与Gemini-3-Pro、GPT-5.2等顶级闭源模型媲美。一举登顶Hugging Face开源模型排行榜。
MiniMax M2.5专为Agent而生,复杂办公场景表现出色,直接带动MiniMax港股激增。
MiniMax M2.5专为复杂办公场景打造,凭借出色的Agent功能和卓越的编程能力,在发布后带动了MiniMax港股的显著增长。
GLM-5更是供不应求,发布前代号Pony Alpha就热度空前,发布后长任务表现持续领先,编程能力比肩Claude Opus 4.5。
而这些夯爆了的模型,都第一时间齐聚阿里云。

阿里云此次诚意满满,不仅提供API接口,还推出了Coding Plan订阅服务,用户可以享受海量Token供应,并在不同模型之间无缝切换。
Token量大管饱,新用户低至首月7.9元,即可在Qwen Code、Claude Code、Cline,以及最近大火的OpenClaw等工具间无缝切换顶级模型。
这性价比杠杠的。
更开放还更便宜,本次春节大模型之战,最后的大赢家还得看阿里云。
四大模型齐聚一堂
毫无疑问,在本次Coding Plan升级中,最亮眼的莫过于四款顶尖模型。那么话不多说,咱们先来细说它们被阿里云选中的理由~
月之暗面于1月27日发布的Kimi K2.5作为K2系列的升级版,在智能性和全能性方面表现优异。其原生多模态架构设计使得它可以理解并应用图像和视频内容进行复杂逻辑推理。
首先是月之暗面在1月27日发布的Kimi K2.5。

作为K2系列的进阶版,它是Kimi迄今为止最智能也最全能的模型。原生多模态架构设计,能够直接理解图像和视频内容,并将其应用在复杂的逻辑推理中。
视觉审美一流,并与代码能力结合。用户只需上传一张网页截图,Kimi K2.5就能自动生成高度还原的、带有动态效果的前端代码,还能通过截取局部图实现代码更新。
或者直接一句指令,就能输出具有交互功能的完整网页。
另外,Kimi还引入了大规模智能体集群,在面对复杂任务时,可自动调度出上百个子智能体并行工作。
尤其是在处理需要1500次工具调用的超大规模任务时,速度相比单智能体模式可提升4.5倍。

随后是2月11日正式推出的MiniMax M2.5,它定位于生产级Agent模型,能够驱动多个子Agent同时工作,在测试中展现了显著的性能提升。
它的定位是原生Agent生产级模型,和Kimi K2.5一样,能够同时驱动多个子Agent并行处理任务,同时使用更少的对话轮次,例如在BrowseComp测试中,模型评分显著提升(76.3%)。
MiniMax M2.5还深度学习了专业场景知识,支持生成带公式和图表的Excel财务模型、专业排版的PPT以及高质量Word文档、研报等。
编程能力对标行业一流,同时具备原生Spec能力,在写代码前,它能够像人类架构师一样主动拆解架构、规划功能模块。

而在MiniMax M2.5发布同天,备受瞩目的GLM-5也是千呼万唤始出来。
GLM-5通过大规模MoE架构解决了长任务逻辑一致性问题。在SWE-Bench Verified编程基准测试中取得77.8%的成绩,并具备全流程开发能力。
在编程基准测试SWE-Bench Verified中取得77.8%的成绩,超过了Gemini 3 Pro,逼近Claude 4.5 Opus。具备后端重构、深度调试(Debugging)、跨文件逻辑修改等全流程开发能力。
GLM-5在Agent上同样表现优秀,可以就模糊指令完成自主规划步骤并调用外部工具,开发者还能实时看到Agent调用参数。
内置有专门的思考模式开关,在面对AIME 2026等复杂逻辑推理任务时,会先内部进行CoT推理再输出答案,以大幅度降低逻辑幻觉。

最后是除夕压轴登场的Qwen3.5,也是阿里最新一代旗舰级大模型。
Qwen家族的新成员Qwen3.5延续了开源优势,同时实现了极低算力消耗下的性能飞跃,参数仅为3970亿,比万亿参数的Qwen3-Max更为强大。
而且总参数只有3970亿,激活仅需170亿,性能却比万亿参数的Qwen3-Max还要强。更直观的是,部署显存占用降低60%,最大推理吞吐量提升19倍,达成大模型效率和成本双双优化。
百万Tokens低至8毛,相当于Gemini-3-pro的1/18。
再具体看基准测试结果。在推理、编程、智能体等核心维度上,Qwen3.5再创新高。

例如,在考核综合认知能力的MMLU-Pro测试中,千问3.5得分87.8分,超过GPT-5.2;在博士级难度的GPQA上斩获88.4分,比以严谨逻辑著称的Claude 4.5还要高;在Agent能力上也是全面发力,BFCL-V4和Browsecomp评分均全面超越Gemini-3-Pro。
能力强、价格低、还开源,也难怪Qwen3.5一出,就成为近期最受开发者欢迎的开源大模型。
而上述这些各有所长的顶级模型们,现在齐刷刷聚集阿里云,也是给予开发者自由选择的便利。
对于忙碌过年的开发者而言,阿里云提供的一站式服务无疑提供了极大的便利。

价格造福开发者
既然是开工福利,阿里云也给咱们把价格打下来了。
众所周知,OpenClaw这类Agent工具是Token“黑洞”。为了让Agent深度理解,必须反复读取整个项目内容,而每多一轮对话,上下文就会呈指数级堆叠。
Agent在写代码时往往也是比较盲目的,经常需要反复报错修改,这就导致Token消耗极快。
而阿里云专门为此推出的Coding Plan,能够让模型按需使用Token,有效减低使用成本。
阿里云Coding Plan在此次升级中采取了加量不加价策略。Lite基础套餐每月最多可使用18000次请求,新用户首月仅需7.9元购买,十分经济实惠。
高级版Pro套餐,每月更是可狂揽90000次请求,上千次复杂任务都不在话下,非常适合企业级用户。价格方面,首月也同样低至39.9元,一杯全家福奶茶的价格。

至此,加上新增的四款模型,阿里云Coding Plan目前共支持8款顶尖编程模型,包括阿里自研的Qwen3.5-Plus、Qwen3-Max、Qwen3-Coder-Next、Qwen3-Coder-Plus,以及第三方的GLM-5、GLM-4.7、Kimi-K2.5、MiniMax-M2.5。
所有模型统一计费、额度共享,订阅后均可实现自由切换。
妥妥的国内AI云服务最强组件。
不止Coding Plan,其所在的阿里云百炼平台也迎来持续增强,全家桶式接入了百余款国内外主流模型API。
阿里云百炼平台接入了一百余款国内外主流模型API,企业可以根据业务需求灵活选择合适的模型,大大提高了工作效率。

还有400多个AI硬件、短视频及广告内容等领域的Agent模板与服务,企业无需再从零开发,而是按需调用,工程应用时间缩至最短。
它为开发者们提供了一整套“需求分析→编程开发→逻辑测试→部署运维→监控追踪”的开发链路,实现了低门槛的闭环工程化跨越。
为什么是阿里云?
其实四大顶流模型同框齐聚阿里云这事,真挺活久见的。
其它云厂商要么只推自家模型,要么零散接入少数第三方,像阿里云这番海纳百川,也是业内头一份了。
而且这四款个顶个的都是广受好评的开源旗舰款,刚落地就被阿里云带走,归根结底还是阿里云自身实力够硬,强强联合,实现1+1>2。

作为亚太第一的云厂商,阿里云能做到这点,离不开技术与商业的双重突破。
首先阿里云拥有超大规模的智算集群,能提供万卡级别的并行训练算力。对于第三方模型,阿里云不仅能提供稳定的GPU资源,还可通过软硬协同加速推理过程,从而降低模型部署的运维成本。
阿里云也是国内最早提出模型即服务(MaaS)概念的。打造的一站式开发平台阿里云百炼提供了开发包容的集成环境,也便于模型厂商直接接触到最迫切的用户群体。

更关键的一点是,阿里云已经拥有相当成熟的用户生态。长期以来的开源路线让阿里云拥有了一批忠实的付费客户,旗下的魔搭社区更是汇聚了数百万开发者。
与此同时,入驻阿里云也就意味着模型厂商能够直接对接阿里背后的数十万企业级客户,海量的场景生态是大模型最好的练兵场。
阿里云通过构建“算力-集成-生态”三位一体的飞轮效应,成功吸引了众多优质大模型入驻,进一步巩固了其在AI领域的领先地位。

而对于阿里自身,选择开放,也是它们长期以来从大模型到云服务一以贯之的战略逻辑。
阿里清晰地认识到,AI时代没有一家公司能垄断全部模型。与其把第三方当作对手,不如将自己作为底层操作系统,承载着全部AI大模型一同起飞。
换言之,从互联网时代到AI时代,阿里的初心从未改变,就是为用户提供最好用的产品。
所以年后复工第一站,选择阿里云看来还真不戳~
