为什么地方算力平台纷纷接入阿里通义千问QwQ-32B?

阿里通义千问QwQ-32B作为阿里开源的推理模型,因其性能和部署成本低的优势,吸引了众多地方算力平台和企业接入。

阿里通义千问QWQ-32B发布以来,越来越多地方算力平台接入。

有观点认为,阿里早已跻身OpenAI、DeepSeek、谷歌等全球大模型第一梯队,在支撑AI的基础算力平台上则与AWS、Azure、谷歌云等国际巨头一同竞争,是目前全球范围内屈指可数的具备超强AI大模型实力与云计算能力的科技公司。

据统计,目前接入QWQ-32B的地方算力平台包含了上海超级计算中心、广州算力中心、武汉人工智能计算中心、南京人工智能计算中心,宁波人工智能超算中心、苏州市公共算力服务平台、长春算力中心、西安雁塔人工智能中心等。

通义千问QwQ-32B是阿里通义团队最新开源的推理模型,在国际权威大模型评测Livebench榜单中,通义千问QwQ-32B超过OpenAI-GPT-4.5-preview、Google-Gemini-2.0、DeepSeek-R1等国内外顶尖模型,成为全球性能最强的开源模型。目前,通义千问的衍生模型数量超过10万个,超过美国Llama模型,成为全球第一开源模型。

实际上,除了地方算力平台纷纷接入之外,接入QWQ-32B的阅读器、眼镜、耳机、玩具、学习机、手机等硬件企业以及国家天文台、中科院等多个研究所。

从地方算力平台、科研院所到企业,诸多应用场景都在接入QWQ-32B,一个非常重要的原因是QwQ-32B大幅降低了部署使用成本,在消费级显卡上也能实现本地部署。通过大规模强化学习,千问QwQ-32B在数学、代码及通用能力上实现飞跃,整体性能比肩DeepSeek-R1,但使用成本却只有DeepSeek-R1的十分之一。

坚定开源路线,通义系列大模型与DeepSeek旗鼓相当

阿里巴巴集团董事长蔡崇信近日在新加坡举办的一场论坛中公开表示,AI不是大企业的专属游戏,开源的力量在于让中小企业和创业者低成本使用AI,未来应用繁荣将受益于今天的开源。

自2023年8月首开国内大厂开源大模型先河以来,阿里云已开源Qwen、Qwen1.5、Qwen2、Qwen2.5等4代模型系列,覆盖从0.5B到110B等“全尺寸”,视觉、语音等“全模态”,总计将通义千问家族超200款模型的研究成果贡献给了开源社区,也为开发者提供最广泛的模型选择。这体现了中国极客们最深沉的爱——开源精神和信息普惠。

在全球主流AI开源社区Hugging Face上,千问系列衍生模型数突破10万,成为全球最大开源模型,持续领先美国Llama等其他开源模型。千问也是支持语种最多的开源模型,不少小语种模型还是当地语言体系中最好的大模型。而OpenAI 的GPT系列等顶级模型并不开源,因此无法下载用于此类研究。

在这一轮AI推理模型技术浪潮中,千问Qwen模型是产学研各界的共同选择。此前爆火的DeepSeek公司基于R1推理模型蒸馏了6个模型开源给社区,其中有4个模型来自Qwen;著名AI科学家李飞飞团队用较少的资源和数据训练出的s1推理模型同样以Qwen模型为基础模型。国内外开发者认为,以上模型取得的良好成绩跟基础模型的强大性能有很大关系。

“阿里云将把促进中国大模型生态的繁荣作为首要目标,向大模型创业公司提供全方位的服务,包括最强大的智能算力和开发工具,并在资金和商业化探索方面提供充分支持。”2023年7月,阿里云CTO周靖人在上海世界人工智能大会发表演讲时表示。

《南华早报》此前报道称,阿里通义千问Qwen模型使斯坦福、伯克利复刻低成本DeepSeek成为可能。《南华早报》认为,阿里巴巴模型的能力再次证明,中国正在缩小与美国领先企业的人工智能差距,而基于阿里Qwen开源开放的路线,研究人员越来越多地利用阿里巴巴的技术来降低AI训练成本。

海量中小企业和AI开发者将受益

同为主打推理的大模型,DeepSeek-R1的架构为MoE结构,QwQ-32B则属于典型的密集模型。

通常来说,MoE模型更加适合知识密集型场景,例如知识问答系统、信息检索等,以及大规模数据处理,例如在处理大规模文本数据、图像数据时,MoE模型可以通过不同专家处理不同的数据子集,提高处理效率。但MoE庞大的参数量决定了,部署满血大模型需要在云端或者自有服务器资源上运行。

而密集模型体积小,计算成本高,更适合需要深度连贯推理的场景,例如复杂的逻辑推理任务、深度阅读理解等,以及复杂算法设计等对实时性要求不高的场景。最大的优点在于非常适合本地部署,但有时候,也会出现废话过多的情况。

在向量数据库公司Zilliz社区负责人王舒虹看来,未来的发展趋势可能是将两者的优势相结合,例如在一些复杂的任务中,可以先使用 MoE 模型进行初步的知识检索和粗粒度的处理,然后再利用密集模型进行深度的推理和细化,以达到更好的性能。

盘古智库高级研究员江瀚则表示,千问QwQ-32B的发布给国产算力厂商带来了更大的利好。QwQ-32B遵循Apache 2.0协议开源,消费级显卡可部署,已经能够满足个人开发者和中小企业极低成本接入顶级模型的诉求。因此在年初DeepSeek点燃整个行业之后,千问QwQ-32B,因其参数和开源优势,或将有望成为超过R1的更广泛行业应用大模型。

本文为转载内容,授权事宜请联系原著作权人。

评论

暂无评论哦,快来评价一下吧!

为什么地方算力平台纷纷接入阿里通义千问QwQ-32B?

阿里通义千问QwQ-32B作为阿里开源的推理模型,因其性能和部署成本低的优势,吸引了众多地方算力平台和企业接入。

阿里通义千问QWQ-32B发布以来,越来越多地方算力平台接入。

有观点认为,阿里早已跻身OpenAI、DeepSeek、谷歌等全球大模型第一梯队,在支撑AI的基础算力平台上则与AWS、Azure、谷歌云等国际巨头一同竞争,是目前全球范围内屈指可数的具备超强AI大模型实力与云计算能力的科技公司。

据统计,目前接入QWQ-32B的地方算力平台包含了上海超级计算中心、广州算力中心、武汉人工智能计算中心、南京人工智能计算中心,宁波人工智能超算中心、苏州市公共算力服务平台、长春算力中心、西安雁塔人工智能中心等。

通义千问QwQ-32B是阿里通义团队最新开源的推理模型,在国际权威大模型评测Livebench榜单中,通义千问QwQ-32B超过OpenAI-GPT-4.5-preview、Google-Gemini-2.0、DeepSeek-R1等国内外顶尖模型,成为全球性能最强的开源模型。目前,通义千问的衍生模型数量超过10万个,超过美国Llama模型,成为全球第一开源模型。

实际上,除了地方算力平台纷纷接入之外,接入QWQ-32B的阅读器、眼镜、耳机、玩具、学习机、手机等硬件企业以及国家天文台、中科院等多个研究所。

从地方算力平台、科研院所到企业,诸多应用场景都在接入QWQ-32B,一个非常重要的原因是QwQ-32B大幅降低了部署使用成本,在消费级显卡上也能实现本地部署。通过大规模强化学习,千问QwQ-32B在数学、代码及通用能力上实现飞跃,整体性能比肩DeepSeek-R1,但使用成本却只有DeepSeek-R1的十分之一。

坚定开源路线,通义系列大模型与DeepSeek旗鼓相当

阿里巴巴集团董事长蔡崇信近日在新加坡举办的一场论坛中公开表示,AI不是大企业的专属游戏,开源的力量在于让中小企业和创业者低成本使用AI,未来应用繁荣将受益于今天的开源。

自2023年8月首开国内大厂开源大模型先河以来,阿里云已开源Qwen、Qwen1.5、Qwen2、Qwen2.5等4代模型系列,覆盖从0.5B到110B等“全尺寸”,视觉、语音等“全模态”,总计将通义千问家族超200款模型的研究成果贡献给了开源社区,也为开发者提供最广泛的模型选择。这体现了中国极客们最深沉的爱——开源精神和信息普惠。

在全球主流AI开源社区Hugging Face上,千问系列衍生模型数突破10万,成为全球最大开源模型,持续领先美国Llama等其他开源模型。千问也是支持语种最多的开源模型,不少小语种模型还是当地语言体系中最好的大模型。而OpenAI 的GPT系列等顶级模型并不开源,因此无法下载用于此类研究。

在这一轮AI推理模型技术浪潮中,千问Qwen模型是产学研各界的共同选择。此前爆火的DeepSeek公司基于R1推理模型蒸馏了6个模型开源给社区,其中有4个模型来自Qwen;著名AI科学家李飞飞团队用较少的资源和数据训练出的s1推理模型同样以Qwen模型为基础模型。国内外开发者认为,以上模型取得的良好成绩跟基础模型的强大性能有很大关系。

“阿里云将把促进中国大模型生态的繁荣作为首要目标,向大模型创业公司提供全方位的服务,包括最强大的智能算力和开发工具,并在资金和商业化探索方面提供充分支持。”2023年7月,阿里云CTO周靖人在上海世界人工智能大会发表演讲时表示。

《南华早报》此前报道称,阿里通义千问Qwen模型使斯坦福、伯克利复刻低成本DeepSeek成为可能。《南华早报》认为,阿里巴巴模型的能力再次证明,中国正在缩小与美国领先企业的人工智能差距,而基于阿里Qwen开源开放的路线,研究人员越来越多地利用阿里巴巴的技术来降低AI训练成本。

海量中小企业和AI开发者将受益

同为主打推理的大模型,DeepSeek-R1的架构为MoE结构,QwQ-32B则属于典型的密集模型。

通常来说,MoE模型更加适合知识密集型场景,例如知识问答系统、信息检索等,以及大规模数据处理,例如在处理大规模文本数据、图像数据时,MoE模型可以通过不同专家处理不同的数据子集,提高处理效率。但MoE庞大的参数量决定了,部署满血大模型需要在云端或者自有服务器资源上运行。

而密集模型体积小,计算成本高,更适合需要深度连贯推理的场景,例如复杂的逻辑推理任务、深度阅读理解等,以及复杂算法设计等对实时性要求不高的场景。最大的优点在于非常适合本地部署,但有时候,也会出现废话过多的情况。

在向量数据库公司Zilliz社区负责人王舒虹看来,未来的发展趋势可能是将两者的优势相结合,例如在一些复杂的任务中,可以先使用 MoE 模型进行初步的知识检索和粗粒度的处理,然后再利用密集模型进行深度的推理和细化,以达到更好的性能。

盘古智库高级研究员江瀚则表示,千问QwQ-32B的发布给国产算力厂商带来了更大的利好。QwQ-32B遵循Apache 2.0协议开源,消费级显卡可部署,已经能够满足个人开发者和中小企业极低成本接入顶级模型的诉求。因此在年初DeepSeek点燃整个行业之后,千问QwQ-32B,因其参数和开源优势,或将有望成为超过R1的更广泛行业应用大模型。

本文为转载内容,授权事宜请联系原著作权人。