0
2023年,大模型顺利将AI1.0带入到了AI2.0阶段,也成为了AI发展的加速器。
今年四五月份,可谓是中国大模型的集中发布月,百度打响头炮发布文心一言,随后各大厂便纷纷秀起了自家的肌肉,阿里发布通义千问、腾讯推出混元,其中也不乏一些创业公司的入局。
当然,就在大模型发展势头正猛的时候,业界出现了两种声音:开源好,还是闭源更胜一筹?
随后大模型厂商便围绕着开源做起了文章。因为在大部分人看来,开源更有利于发展生态更有利于大模型产业的有序健康发展。
其中,浪潮信息作为算力提供商,就于近日发布了“源2.0”基础大模型,并宣布全面开源。其中包括1026亿、518亿、21亿等三种参数规模的模型,在编程、推理、逻辑等方面展示出了先进的能力。
可以说,目前国内大模型产业已经蓬勃发展阶段,同时也推动了算力市场的发展。
据国际数据公司(IDC)与浪潮信息联合发布《2023-2024中国人工智能计算力发展评估报告》显示,2023年,中国人工智能服务器市场规模将达91亿美元,同比增长82.5%;智能算力规模预计达到414.1EFLOPS,同比增长59.3%;2022-2027年期间,年复合增长率预计达33.9%。
首先,行业渗透层面,人工智能已经从单点应用扩展到多元化应用、从通用场景到行业特定场景正在不断深入,在今年人工智能行业渗透度排名中,Top5的行业依次为互联网、电信、政府、金融和制造。其中,互联网依然是AIGC技术应用和研发的主战场;电信行业排名从2022年的第四跃升至2023年的第二,主要归因于运营商紧跟国家东数西算战略,加速云数据中心、智算中心的建设。
其次,区域分布层面,北京、杭州、深圳继续保持前三名。其中,北京在大模型领域表现突出,聚集了大批大模型企业。整体来说,排名靠前的城市因具有更好的政策、资金和技术支持,可以稳定吸引更多的人才和企业聚集;智算中心的建设也是拉动地区实现人工智能发展的重要驱动力,既可以提升基础设施建设水平,也为吸引更多企业共谋发展起到积极的推动作用。
再者,算力一直是业界最为关注的话题,因为其不仅是大模型训练的难点,也是制约大模型产业向前发展的关键要素之一。《报告》指出,当前在AIGC的带动下,人工智能计算力技术及应用趋势发生了较大的变化,体现为“三变::
其一,计算范式之变。大模型和AIGC的发展加速了更高计算性能、更快互联性能的算力基础设施建设,推进人工智能在云-边-端的覆盖。此外,伴随应用场景多样性,底层基础设施呈现多元化发展。
其二,产业动量之变。AIGC可重构现有的工作方式,在内容创作、自动驾驶、零售、医疗等诸多领域改变着人们的生活和生产方式,同时也带来更大的市场机会。算力、算法、应用、服务等诸多产业变量将成为创新的加速器,在算力生态链上的各个环节催生出新的玩家。
其三,算力服务格局之变。由于基础大模型的本地训练成本不菲,企业将更多地使用已有的人工智能数据中心设施和生成式AI服务器集群,这将为算力服务市场带来新机会。算力服务供应商要能够提供定制化的基础设施服务能力,满足单个用户对训练和推理资源的独占式、大规模、长时间使用的诉求,同时帮助用户实现成本控制。
大模型训练催生的算力需求,一方面,使算力需求不断攀升,但另一方面,也使算力紧缺的问题越来越明显。
中国工程院院士王恩东表示,大模型带动生成式人工智能产业迅速发展,在科学探索、技术研发、艺术创作、企业经营等诸多领域都带来了巨大的创新机会,提升大模型智能水平需要提升模型训练的参数量和数据量,这必须要通过更大更好的智算力才能够支撑,从这个意义上可以说智算力就是创新力,当前人工智能产业发展的基础是智算能力。
作为算力供应商应该怎么做?
——“以应用为导向、系统为核心”,构建算力基础设施平台,提高算力利用率,提升诸如卡间互联、多节点间互联等水平,支持灵活稳定扩展和弹性容错,积极打造通用的人工智能软件和硬件平台,以先进的系统性能力满足市场的应用需求。也就是说,与其过分关注单一芯片的性能强弱,不如根据人工智能业务场景需求,设计更具针对性的算力系统,实现整体性能最优。
(雷峰网雷峰网(公众号:雷峰网)雷峰网)
雷峰网原创文章,未经授权禁止转载。详情见转载须知。