阿里云AI基建全面升级:通义大模型降价再降价,Qwen2.5系列开源模型问世

元描述:阿里云发布最强开源模型Qwen2.5系列,通义千问主力模型再降价,全面升级AI基础设施,打造AI时代最强AI基建,助力企业和开发者低成本使用大模型。

引言: 在2024年的杭州云栖大会上,阿里云宣布了其在人工智能领域的一系列重大举措,包括发布最强开源模型Qwen2.5系列,通义千问主力模型再次降价,以及全面升级从服务器到计算、存储、网络、数据处理、模型训练和推理平台的技术架构体系。这些举措旨在打造一个AI时代的最强AI基建,让企业和开发者能够以更低的成本和更高的效率使用大模型,加速AI技术在各行各业的应用。

阿里云AI基建:全面升级,打造AI时代最强算力引擎

随着人工智能时代的到来,对基础设施的性能和效率要求也越来越高。传统的以CPU为主导的计算体系已经无法满足AI模型的开发和应用需求,GPU主导的AI计算体系正在快速崛起。阿里云正在积极拥抱这一趋势,以AI为中心,全面重构底层硬件、计算、存储、网络、数据库和大数据,并与AI场景有机适配、融合,加速模型的开发和应用。

1. 硬件升级:磐久AI服务器,单机16卡、显存1.5T,GPU故障预测准确率高达92%

阿里云最新上线的磐久AI服务器,支持单机16卡、显存1.5T,能够为AI模型训练和推理提供强大的硬件支持。该服务器还配备了AI算法预测GPU故障的功能,准确率高达92%,有效降低了硬件故障带来的风险。

2. 计算升级:ACS推出GPU容器算力,实现计算亲和度和性能提升

阿里云ACS首次推出GPU容器算力,通过拓扑感知调度,能够实现计算亲和度和性能的提升。这意味着开发者可以更有效地利用GPU资源,提升模型训练和推理的效率。

3. 网络升级:HPN7.0网络架构,稳定连接超过10万个GPU,模型训练性能提升10%以上

阿里云为AI设计的高性能网络架构HPN7.0,能够稳定连接超过10万个GPU,实现模型端到端训练性能提升10%以上。这保证了大规模分布式模型训练的高效性,为大模型的快速发展提供了坚实的网络基础。

4. 存储升级:CPFS文件存储,数据吞吐20TB/s,提供指数级扩展存储能力

阿里云CPFS文件存储,数据吞吐20TB/s,能够为AI智算提供指数级扩展存储能力。这能够满足大规模模型训练和推理对海量数据的存储需求,保证数据的高效访问和处理。

5. 平台升级:PAI实现万卡级别的训练推理一体化弹性调度,AI算力有效利用率超90%

阿里云人工智能平台PAI,已实现万卡级别的训练推理一体化弹性调度,AI算力有效利用率超90%。这意味着开发者可以根据需求灵活调整算力资源,最大限度地利用AI算力,降低成本。

通义大模型:降价再降价,性价比更高,加速AI应用落地

为了降低企业和开发者使用大模型的门槛,阿里云宣布对通义千问主力模型进行第二轮降价。Qwen-Turbo价格直降85%,低至百万tokens 0.3元,Qwen-Plus和Qwen-Max分别再降价80%和50%。

Qwen-Plus 的推理能力已接近GPT-4,可应用于复杂任务,是效果、速度及成本均衡的最优选择。 降价后,Qwen-Plus 的性价比达到业界最高,同等规模较行业价格低84%。

Qwen-Turbo 则以速度和低成本著称,适合对实时性要求高、成本敏感的应用场景。

Qwen-Max 作为通义大模型家族的旗舰产品,性能接近GPT-4o,能够完成更复杂的任务。

阿里云百炼平台 还为所有新用户免费赠送超5000万tokens及4500张图片生成额度,进一步降低使用门槛,吸引更多用户体验通义大模型。

通义开源模型:Qwen2.5系列问世,创造大模型开源史上之最

继推出通义千问之后,阿里云持续推进大模型的开源工作,发布了最强开源模型Qwen2.5系列,包括语言、音频、视觉等100多款全模态模型。通义开源模型累计下载量已经突破4000万,通义原生模型和衍生模型总数超过5万,成为仅次于美国Llama的世界级模型群。

Qwen2.5系列 的开源,意味着更多企业和开发者可以以更低成本使用大模型,加速AI技术的应用落地。

AI应用:通义灵码升级,AI程序员问世,助力软件开发提效数十倍

面向编程场景,阿里云通义灵码再次升级,推出全新AI程序员。不同于上一代产品,AI程序员 同时具备架构师、开发工程师、测试工程师等多种岗位技能,能够自主完成任务分解、代码编写、缺陷修复、测试等开发工作,最快分钟级完成应用开发,帮助软件开发提效数十倍。

大模型生态:魔搭社区成为中国最大的模型社区,助力模型繁荣发展

作为最早提出模型即服务(MaaS)理念的企业,阿里云一直把大模型生态的繁荣作为首要目标。目前,魔搭社区 已成为中国最大的模型社区,拥有超690万开发者用户,与行业合作伙伴合作贡献了超10000款模型。

结语:

阿里云正在积极构建AI时代的最强AI基建,通过全面升级基础设施、持续降低大模型使用成本、开放最先进的模型,助力企业和开发者快速拥抱AI技术,加速AI在各行各业的应用落地。未来,随着AI技术的不断发展,阿里云将继续引领AI基础设施的革新,为推动产业智能化发展贡献力量。

常见问题解答:

1. 阿里云为什么要升级AI基础设施?

随着人工智能时代的到来,对基础设施的性能和效率要求也越来越高,传统的以CPU为主导的计算体系已经无法满足AI模型的开发和应用需求,GPU主导的AI计算体系正在快速崛起。阿里云正在积极拥抱这一趋势,以AI为中心,全面重构底层硬件、计算、存储、网络、数据库和大数据,并与AI场景有机适配、融合,加速模型的开发和应用。

2. 通义千问模型为什么降价?

阿里云希望降低企业和开发者使用大模型的门槛,吸引更多用户体验通义大模型,加速AI技术的应用落地。

3. 通义开源模型有什么优势?

通义开源模型提供了丰富的模型选择,涵盖语言、音频、视觉等全模态,并且提供免费使用,让更多企业和开发者能够以更低成本使用大模型,加速AI技术的应用落地。

4. AI程序员有什么功能?

AI程序员能够自主完成任务分解、代码编写、缺陷修复、测试等开发工作,最快分钟级完成应用开发,帮助软件开发提效数十倍。

5. 魔搭社区有什么作用?

魔搭社区是一个模型共享平台,汇集了来自全球的开发者和合作伙伴贡献的模型,为开发者提供模型训练、部署、应用等服务,促进模型生态的繁荣发展。

6. 阿里云在AI领域未来的发展方向是什么?

阿里云将继续引领AI基础设施的革新,为推动产业智能化发展贡献力量。