0
9 月 24 日至 26 日,第20届CCF全国高性能计算学术年会(CCF HPC China 2024)在武汉市中国光谷科技会展中心正式开幕。
本次大会上,联想以“异构智算 稳定高效”为主题,携“一横五纵”算力基础设施战略、联想万全异构智算平台、联想AI解决方案、联想科学计算整体解决方案参展。
面对人工智能的浪潮,作为全球领先的科学计算解决方案提供商,联想以“一横五纵”战略框架,构建布局完整、稳定高效的AI基础设施,为企业智能化转型打造坚实可靠的智算底座。
在 24 日下午的大会论坛上,联想中国基础设施业务群战略管理总监黄山发表了主题为“筑基新质算力 纵横数字未来”的精彩演讲。
联想中国基础设施业务群战略管理总监 黄山
演讲过程中,黄山主要围绕当前国产算力的瓶颈和破局之道展开分享。在他看来,“超智融合”已然成为 HPC 新的发展趋势,而联想在万全异构智算平台上的布局正是基于团队内部对于这一趋势的深刻洞察。
洞察算力新趋势,联想布局异构智算
当前,国内的算力集群已经有了不少千卡、万卡级别的实践,但要实现十万卡,甚至超万卡的突破仍旧有一定难度。
国产算力究竟有着怎样待解的难题?在黄山看来,主要有四个关键“卡脖子”的问题:
首先,多元异构处理器以及服务器、存储、网络等基础设施的硬件兼容性、互操作性设计是一项复杂的大工程;其次,AI训练集群故障频发是常态。一个千卡集群一个月至少有15次因故障停训,故障诊断与恢复是AI训练算力达成SLA的关键难题。
再次,可用算力的效率还不够高,算力的投入产出不足以持续支持算力经济长期健康发展。最后,由于技术限制难以突破的散热瓶颈。智算算力发展需要液冷技术与方案设计的持续升级。
在今年的 CCF HPC 中,“超智融合”这一关键词被一众大咖反复提及,已然成为解决国内计算瓶颈的重要路径之一。这一趋势的出现,也标志着 HPC 由传统通用计算主导的科学计算,逐步过渡到了异构加速的 AI 计算新时代。
今年 4 月,联想正式发布的万全异构智算平台便是基于前述洞察做出的应对方案,是实现“算力好用”的破局关键。同时,也是联想“一横五纵”战略中的重要“一横”,此外,“五纵”则主要指服务器、存储、软件及超融合、数据网络以及边缘基础设施产品和方案。
据联想方面介绍,万全异构智算平台集成了算力匹配魔方、GPU内核态虚拟化、联想集合通信算法库、AI高效断点续训技术、AI与HPC异构集群超级调度器五大创新技术,能高度自动化地完成AI全流程开发,提供高可用算力,并持续突破计算效率瓶颈。
会后,在接受 AI 科技评论专访时,黄山进一步介绍道,“我们的平台是一个异构智算调度软件,不同于普通或者说标准化的操作系统软件,或者虚拟化软件。这样的新赛道是由智算的发展催生的,目前赛道内还没有成熟标准,联想也没有一个有章可循的开发计划,主要是以客户的需求作为根本,最开始的开发就是有大项目在提出需求。”
在整个开发过程中,他体会最深的一点则在于,“在这个过程中,需求的变化非常之快,模型客户的应用变化也很快,软件栈的复杂度也非常高,又没有标准群,有可能上个月很好的开发和设计方式,下个月根据实际的场景又需要再进行优化。”
国产 GPU 算力将迎阶跃式提升
联想在破解算力难题,打造异构智算平台的过程中也遇到过许多难题,在此之中,生态的力量则成为了破局过程中不可或缺的存在,联想借此也将迎来新的进展。
今年 4 月,联想在信通院的领导下成立了万全异构智算平台生态产业联盟,据悉,异构智算产业生态联盟首批共计16家成员单位。其中包括了与联想有实际方案合作的 7 家国产 GPU 厂商。除此之外,还有包括Colossal-AI、智谱 AI 等在内的合作伙伴。
谈及与后者的合作,黄山进一步解释称,“我们向上看到 AI 的工具链并行算法,包括 AI 的开发社区都需要完善,整个的算法利用率是需要从芯片到模型层来解决的。”
联想在整个生态中主要扮演着怎样的角色呢?据黄山此前介绍,“联想主要贡献硬件能力和异构智算平台的集群管理调度能力。然后是对算力生态的包容,即硬件会兼容xPU生态硬件,异构智算平台会集成xPU底层软件。再就是以extended UI的方式对接集成AI工具链生态。”
值得一提的是,在黄山的预判中,国内 GPU 算力即将迎来一波阶跃式升级。
在和生态伙伴合作的过程中,他观察发现,“国内卡的生态已经非常丰富,在禁运后的一年多里,我们的合作伙伴中有至少 5 家到 7 家国产卡已经或是即将在半年内推出,这些卡组成万卡集群也是能支撑国内大模型持续发展的。”
他进一步向 AI 科技评论介绍道,“目前,7家芯片厂商在市场上各自有应用的对象,而且他们是互补的,很多都不冲突,要用好国产算力,其实 7 家都需要,甚至还有可能将来会涌现出更多,那么就需要先去把这些芯片做好管理和兼容,这一点是联想已经做到的。”雷峰网雷峰网(公众号:雷峰网)
雷峰网原创文章,未经授权禁止转载。详情见转载须知。