正在阅读:

阿里发布最强开源模型Qwen3,成本仅为DeepSeek-R1三分之一

扫一扫下载界面新闻APP

阿里发布最强开源模型Qwen3,成本仅为DeepSeek-R1三分之一

“推理/非推理”二合一的混合推理模型,既提升了模型本身的智能水平,又整体降低了算力资源消耗。正因为如此,Qwen3在性能大幅提升的同时,成本还出现了下降。

图片来源:界面新闻

界面新闻记者 | 肖芳

界面新闻编辑 | 文姝琪

4月29日凌晨,阿里巴巴开源新一代通义千问模型Qwen3,参数量仅为DeepSeek-R1的1/3,成本大幅下降,性能全面超越R1、OpenAI-o1等全球顶尖模型,登顶全球最强开源模型。Qwen3是国内首个“混合推理模型”,“快思考”与“慢思考”集成进同一个模型,对简单需求可低算力“秒回”答案,对复杂问题可多步骤“深度思考”,大大节省算力消耗。

“混合推理”相当于把顶尖的推理模型和非推理模型集成到同一个模型里去,需要极其精细、创新的设计及训练。目前,热门模型中只有千问3、Claude3.7以及Gemini 2.5 Flash可以做到。

在“推理模式”下,模型会执行更多中间步骤,如分解问题、逐步推导、验证答案等,给出更深思熟虑的答案;而在“非推理模式”下,模型会直接生成答案。同一个模型,可以完成“快思考”和“慢思考”,这类似于人类在回答简单问题时,凭经验或直觉快速作答,面对复杂难题时再深思熟虑,仔细思考给出答案。

设计和训练混合推理模型的难度,是远超单纯的推理模型的。训练混合推理模型,有复杂的机制,相当于模型要学习两种不同的输出分布,要做到两个模式融合且基本不影响任何一种模式下的效果,很考验训练过程的训练策略。

“推理/非推理”二合一的混合推理模型,既提升了模型本身的智能水平,又整体降低了算力资源消耗。正因为如此Qwen3性能大幅提升同时成本出现下降

性能方面Qwen3采用混合专家(MoE)架构,总参数量235B,激活仅需22B。Qwen3预训练数据量达36T ,并在后训练阶段多轮强化学习,将非思考模式无缝整合到思考模型中。

评测显示Qwen3在推理、指令遵循、工具调用、多语言能力等方面均大幅增强,即创下所有国产模型及全球开源模型的性能新高。其中在奥数水平的AIME25测评中,Qwen3斩获81.5分,刷新开源纪录;在考察代码能力的LiveCodeBench评测中,Qwen3突破70分大关,表现甚至超过Grok3;在评估模型人类偏好对齐的ArenaHard测评中,Qwen3以95.6分超越OpenAI-o1及DeepSeek-R1。

同时,Qwen3的部署成本还大幅下降,仅需4张H20即可部署Qwen3满血版,显存占用仅为性能相近模型的三分之一。

Qwen3还提供了丰富的模型版本,包含2款30B、235B的MoE模型,以及0.6B、1.7B、4B、8B、14B、32B等6款密集模型,每款模型均斩获同尺寸开源模型SOTA(最佳性能):Qwen3的30B参数MoE模型实现了10倍以上的模型性能杠杆提升,仅激活3B就能媲美上代Qwen2.5-32B模型性能;Qwen3的稠密模型性能继续突破,一半的参数量可实现同样的高性能,如32B版本的Qwen3模型可跨级超越Qwen2.5-72B性能。

Qwen3为即将到来的智能体Agent和大模型应用爆发提供了更好的支持。在评估模型Agent能力的BFCL评测中,Qwen3创下70.8的新高,超越Gemini2.5-Pro、OpenAI-o1等顶尖模型,将大幅降低Agent调用工具的门槛。

同时,Qwen3原生支持MCP协议,并具备工具调用(function calling)能力,结合封装了工具调用模板和工具调用解析器的Qwen-Agent 框架,将大大降低编码复杂性,实现高效的手机及电脑Agent操作等任务。

据界面新闻了解,Qwen3系列模型依旧采用宽松的Apache2.0协议开源,并首次支持119多种语言,全球开发者、研究机构和企业均可免费在魔搭社区、HuggingFace等平台下载模型并商用,也可以通过阿里云百炼调用Qwen3的API服务。个人用户可立即通过通义APP直接体验Qwen3,夸克也即将全线接入Qwen3。

目前,阿里通义已开源200余个模型,全球下载量超3亿次,千问衍生模型数超10万个,已超越美国Llama,成为全球第一开源模型。

 

未经正式授权严禁转载本文,侵权必究。

OpenAI

  • OpenAI升级GPT-4o模型,提升智能和个性
  • AI早报 | 蚂蚁集团全球招募顶尖AI人才;Manus AI完成7500万美元融资

评论

暂无评论哦,快来评价一下吧!

下载界面新闻

微信公众号

微博

阿里发布最强开源模型Qwen3,成本仅为DeepSeek-R1三分之一

“推理/非推理”二合一的混合推理模型,既提升了模型本身的智能水平,又整体降低了算力资源消耗。正因为如此,Qwen3在性能大幅提升的同时,成本还出现了下降。

图片来源:界面新闻

界面新闻记者 | 肖芳

界面新闻编辑 | 文姝琪

4月29日凌晨,阿里巴巴开源新一代通义千问模型Qwen3,参数量仅为DeepSeek-R1的1/3,成本大幅下降,性能全面超越R1、OpenAI-o1等全球顶尖模型,登顶全球最强开源模型。Qwen3是国内首个“混合推理模型”,“快思考”与“慢思考”集成进同一个模型,对简单需求可低算力“秒回”答案,对复杂问题可多步骤“深度思考”,大大节省算力消耗。

“混合推理”相当于把顶尖的推理模型和非推理模型集成到同一个模型里去,需要极其精细、创新的设计及训练。目前,热门模型中只有千问3、Claude3.7以及Gemini 2.5 Flash可以做到。

在“推理模式”下,模型会执行更多中间步骤,如分解问题、逐步推导、验证答案等,给出更深思熟虑的答案;而在“非推理模式”下,模型会直接生成答案。同一个模型,可以完成“快思考”和“慢思考”,这类似于人类在回答简单问题时,凭经验或直觉快速作答,面对复杂难题时再深思熟虑,仔细思考给出答案。

设计和训练混合推理模型的难度,是远超单纯的推理模型的。训练混合推理模型,有复杂的机制,相当于模型要学习两种不同的输出分布,要做到两个模式融合且基本不影响任何一种模式下的效果,很考验训练过程的训练策略。

“推理/非推理”二合一的混合推理模型,既提升了模型本身的智能水平,又整体降低了算力资源消耗。正因为如此Qwen3性能大幅提升同时成本出现下降

性能方面Qwen3采用混合专家(MoE)架构,总参数量235B,激活仅需22B。Qwen3预训练数据量达36T ,并在后训练阶段多轮强化学习,将非思考模式无缝整合到思考模型中。

评测显示Qwen3在推理、指令遵循、工具调用、多语言能力等方面均大幅增强,即创下所有国产模型及全球开源模型的性能新高。其中在奥数水平的AIME25测评中,Qwen3斩获81.5分,刷新开源纪录;在考察代码能力的LiveCodeBench评测中,Qwen3突破70分大关,表现甚至超过Grok3;在评估模型人类偏好对齐的ArenaHard测评中,Qwen3以95.6分超越OpenAI-o1及DeepSeek-R1。

同时,Qwen3的部署成本还大幅下降,仅需4张H20即可部署Qwen3满血版,显存占用仅为性能相近模型的三分之一。

Qwen3还提供了丰富的模型版本,包含2款30B、235B的MoE模型,以及0.6B、1.7B、4B、8B、14B、32B等6款密集模型,每款模型均斩获同尺寸开源模型SOTA(最佳性能):Qwen3的30B参数MoE模型实现了10倍以上的模型性能杠杆提升,仅激活3B就能媲美上代Qwen2.5-32B模型性能;Qwen3的稠密模型性能继续突破,一半的参数量可实现同样的高性能,如32B版本的Qwen3模型可跨级超越Qwen2.5-72B性能。

Qwen3为即将到来的智能体Agent和大模型应用爆发提供了更好的支持。在评估模型Agent能力的BFCL评测中,Qwen3创下70.8的新高,超越Gemini2.5-Pro、OpenAI-o1等顶尖模型,将大幅降低Agent调用工具的门槛。

同时,Qwen3原生支持MCP协议,并具备工具调用(function calling)能力,结合封装了工具调用模板和工具调用解析器的Qwen-Agent 框架,将大大降低编码复杂性,实现高效的手机及电脑Agent操作等任务。

据界面新闻了解,Qwen3系列模型依旧采用宽松的Apache2.0协议开源,并首次支持119多种语言,全球开发者、研究机构和企业均可免费在魔搭社区、HuggingFace等平台下载模型并商用,也可以通过阿里云百炼调用Qwen3的API服务。个人用户可立即通过通义APP直接体验Qwen3,夸克也即将全线接入Qwen3。

目前,阿里通义已开源200余个模型,全球下载量超3亿次,千问衍生模型数超10万个,已超越美国Llama,成为全球第一开源模型。

 

未经正式授权严禁转载本文,侵权必究。