新京报贝壳财经讯(记者罗亦丹)4月29日凌晨,阿里巴巴开源新一代通义千问模型Qwen3(简称千问3),参数量仅为DeepSeek-R1的1/3,成本大幅下降,性能则在各项测评中创下国产模型新高。
新京报贝壳财经记者登录千问3发现,其界面布局相比其他大模型也有所创新,如其深度思考可以通过类似拖动“时间轴”按钮的方式选择控制思考的最大长度,从而实现控制tokens(算力单位)消耗预算。另外,其还在搜索框中添加了最近火热的“MCP”(模型上下文协议)选项,不过显示为“即将推出”。

千问3界面截图,可以看到“思考预算”控制按钮以及MCP选项
性能方面,千问3采用混合专家(MoE)架构,总参数量235B,激活仅需22B。千问3预训练数据量达36T ,并在后训练阶段多轮强化学习,将非思考模式无缝整合到思考模型中。千问3在推理、指令遵循、工具调用、多语言能力等方面均大幅增强,即创下所有国产模型及全球开源模型的性能新高:在奥数水平的AIME25测评中,千问3斩获81.5分,刷新开源纪录;在考察代码能力的LiveCodeBench评测中,千问3突破70分大关,表现甚至超过Grok3;在评估模型人类偏好对齐ArenaHard测评中,千问3以95.6分超越OpenAI-o1及DeepSeek-R1。性能大幅提升的同时,千问3的部署成本还大幅下降,仅需4张H20即可部署千问3满血版,显存占用仅为性能相近模型的三分之一。
此外,千问3还提供了丰富的模型版本,包含2款30B、235B的MoE模型,以及0.6B、1.7B、4B、8B、14B、32B等6款密集模型,每款模型均斩获同尺寸开源模型SOTA(最佳性能):千问3的30B参数MoE模型实现了10倍以上的模型性能杠杆提升,仅激活3B就能媲美上代Qwen2.5-32B模型性能;千问3的稠密模型性能继续突破,一半的参数量可实现同样的高性能,如32B版本的千问3模型可跨级超越Qwen2.5-72B性能。
这为应用部署提供了便捷,例如4B模型是手机端的绝佳尺寸;8B模型可在电脑和汽车端丝滑部署应用;32B模型最受大规模部署企业欢迎。
目前,千问3系列模型依旧采用宽松的Apache2.0协议开源,并首次支持119种语言,全球开发者、研究机构和企业均可免费在魔搭社区、HuggingFace等平台下载模型并商用,也可以通过阿里云百炼调用千问3的API服务。个人用户可立即通过通义APP直接体验千问3,夸克也即将全线接入千问3。
据悉,阿里通义已开源200余个模型,全球下载量超3亿次,千问衍生模型数超10万个,已超越美国Llama,成为全球第一开源模型。