开放创新驱动AI时代:全面应对大模型挑战与算力扩展

2024-08-18 09:40:29 51VPN服务中心 65

在2024开放计算中国峰会上,浪潮信息服务器产品线总经理赵帅指出,智能时代下的开源模型和开放计算为人工智能产业带来了前所未有的创新动力。面对大模型Scaling Law所引发的AI基础设施的扩展挑战,数据中心必须通过开放创新,全面提升算力系统、管理以及基础设施的扩展能力,以推动AI产业的持续创新发展。

开源开放引领AI创新与算力生态的全面升级

生成式人工智能的快速发展正在加速智能时代的到来,数据中心的基础设施需要依赖全球化的开放协作,以推动AI技术的创新与应用。开源和开放已经成为激发人工智能创新活力的核心动力。

开源模型的广泛应用带动了人工智能生态的繁荣。如今,三分之二的基础模型选择开源,80%以上的AI项目使用开源框架开发,开源模型的下载量突破3亿次,涌现出如Llama 3.1、通义千问、源2.0等大模型,成为AI创新的重要引擎。

硬件开放则完善了人工智能算力生态。随着全球范围内对AI芯片需求的激增,开放的OAM规范加速了多元算力芯片的适配与兼容,降低了资源投入,提升了算力部署和迭代速度,助力大模型和AIGC应用的快速发展。浪潮信息推出的基于OAM规范的开放计算平台NF5698G7,已与多款主流AI加速芯片实现了兼容适配,推动了智算产业生态的进一步完善。

SD-WAN技术如何实现监控异地组网

随着应用范式的多样化,AI算力正呈现出多元化的发展趋势。针对AIGC、云计算、大数据等应用场景,不同架构的CPU处理器如x86、ARM、RISC-V纷纷涌现,且各自协议标准不统一,系统功耗、总线速率、电流密度等问题叠加,给算力系统设计带来了巨大挑战。为此,浪潮信息在峰会上宣布启动开放算力模组(OCM)规范,旨在通过标准化的算力模组单元,实现服务器主板平台的深度解耦和模块化设计,推动算力产业的高质量发展。

以开放创新的全向Scale应对大模型的Scaling Law

算力、算法和数据是推动人工智能发展的三驾马车,而Scaling Law(规模定律)被视为大模型性能的关键驱动因素。面对不断攀升的算力需求,数据中心必须在算力、管理和基础设施等多个层面实现全方位的扩展。

在算力方面,智算中心需应对单机系统Scale up与大规模AI组网的Scale out挑战,通过开放加速模组和开放网络来实现算力的扩展。浪潮信息的UBB2.0开放标准支持更高算力规格的加速卡,开放网络交换机则可实现大规模计算节点的组网,满足AI算力的通信需求。

在管理方面,异构算力多元分化带来了管理的挑战,浪潮信息提出的开放固件解决方案,通过建立统一标准的接口规范,实现了跨平台适配和快速迭代。

在基础设施方面,数据中心需要通过开放标准和开放生态应对算力的扩展需求。浪潮信息推出的液冷冷板组件、模块化机柜和预制化集装箱数据中心,为AI算力系统的扩展提供了可靠支持。

开放计算加速智算时代的到来

开放计算为数据中心的全向Scale提供了加速路径。目前,开放加速模组、开放固件和开放标准共同推动了算力、管理与基础设施的扩展。未来,基于开放创新构建的全向Scale能力将成为AI基础设施的核心驱动力,推动智能时代的进一步发展和人工智能的持续创新。


服务热线

400-828-7558