AI大模型等技术和应用爆发式发展,正加速推动中国构建更庞大的算力基础设施。
钛媒体App 9月5日消息,国家统计局最新数据显示,截至5月底,规划具有高性能计算机集群的智算中心达10余个,智能算力占算力总规模比重超过30%。目前,中国算力机架总规模超过195万架,整体上架率达63%左右。东西部枢纽节点间网络时延已基本满足20毫秒(ms)要求。
国家数据局党组书记、局长刘烈宏在2024中国国际大数据产业博览会上透露,截至今年6月底,中国八大国家枢纽节点直接投资超过435亿元,拉动投资超过2000亿元。
很显然,中国正加大 AI 算力投资力度。
在这其中,如果把 AI 大模型的推理放到边端,通过分布式推理,可有效降低算力成本。AMD CEO苏姿丰(Lisa Su)曾预估,未来价值4000亿美元规模的AI加速计算市场中,其中超过一半的份额,即至少2000亿美元将被专门用于AI推理计算场景的应用。
“我们正处于一个各大企业大规模深化应用、上云复制的阶段。”中国信息通信研究院云计算与大数据研政企数字化转型部主任徐恩庆在9月4日举行的“Power to Pioneers·2024分布式云计算论坛暨PPIO AI产品发布会”上表示,2023年中国数字经济规模占GDP的比重达42.8%,整个数字经济规模处于蓬勃发展状态。其中,互联网厂商、数智厂商、网络运营商所代表的经济规模只占20%,传统的政企单位以及大量企业深入使用新一代的数字化技术所创造新的经济规模价值占80%。
在徐恩庆看来,伴随着 AI 和大算力基础设施的建设过程中,分布式算力体系已经成为支持新一代IT技术发展的关键。这些新一代超大规模分布式算力基础设施通过分布式计算,确保了 AI 算法的高效运行,同时也需要一个更强大的操作平台来融合异构算力和智算基础设施。
会上,PPIO派欧云联合创始人、CEO姚欣发布专为AI推理场景设计的Serverless产品,公司通过算法、系统和硬件协同创新,提供模型部署、运行优化、弹性伸缩及API服务,帮助客户在自定义模型时获得高效的弹性效率和极致的运行成本。Serverless产品的推出使得开发者无需再管理和运维算力服务器,而是能够将精力集中于核心业务的应用逻辑开发与创新,从而帮助企业实现降本增效。
姚欣预测,未来三年,AI 大模型推理成本或将下降1000倍以上。而遵循Scaling Law(尺度定律)的基本原理,计算能力将决定大模型创新和应用的上限。那么在计算资源成本高昂而需求爆增的市场格局下,分布式算力将成为引领下一轮科技革命的重要推动力,正在逐步改变全球计算资源的供给和利用方式。