0
英特尔本周召开了年度Intel Vision大会,大部分人会首先被比英伟达H100训练性能高70%,推理性能高50%,能效高40%,拥有TCO(总体拥有成本)的Gaudi 3吸引。
英特尔CEO帕特·基辛格发布Gaudi 3的时候也开心地跟随现场伴奏摇晃起身体。
相比之下,Intel Vision上英特尔宣布将创建一个开放平台助力企业推动AI创新很容易被忽略。
但这才是英特尔在生成式AI时代分走蛋糕最有效的利器,只有拥有开放且繁荣的生态,至强6、Gaudi3、酷睿Ultra、英特尔AI网络连接卡才更容易备受青睐。
为什么开放生态是利器?
所有人都在说CUDA生态才是英伟达在AI领域里最强的护城河,这是英伟达耗费近20年建立的庞大生态。
可是现在大多数程序员都在AI框架级别或者更高级别进行编程,使用CUDA进行低级编程已经不那么普遍。
这就意味着,英伟达的软件生态护城河已经不像原来那样坚不可摧。开放生态是一个追赶甚至超越英伟达的机会。
“传统模式中,几家领导公司组建一个开放联盟,各自有明确的分工,那时更多是一个选择问题。”英特尔公司副总裁、英特尔中国软件和先进技术事业部总经理李映说,“这一次基于AI大模型的变化,是第一次出现开放、开源和整个行业或者说和技术创新的爆发点结合在一起。现在开放、开源和闭源同时出现的时候,不是选择,而是自然演变、发展的过程。”
开放、开源的生态,将会对AI未来发展起到非常重要作用的趋势已经非常明显。
这也让所有人看到,区别于以往一个开放平台或者联盟成立的时候只有几家联盟成员,英特尔联合Anyscale、Articul8、DataStax、Domino、Hugging Face、KX Systems、MariaDB、MinIO、Qdrant、RedHat、Redis、SAP、VMware、Yellowbrick和Zilliz共同宣布,将创建的开放平台宣布之时就有大量联盟成员。
英特尔院士、大数据技术全球首席技术官、大数据分析和人工智能创新院院长戴金权指出,“一个开放的生态,可以让同一个生态系统中的创新相互促进。并且在同一生态里的新应用场景可以互通。”
英特尔要构建一个什么样的AI开放生态?Intel Vision上基辛格给出的答案是企业AI。
根据cnvrg.io的调研结果,2023年,有10%的企业成功将其生成式AI项目产品化。Gartner预计,2026年80%的企业将使用生成式AI。
这样看来企业AI是一个确定性很高且潜力巨大的市场。
为企业AI构建开放的生态,需要包含三个方面:开放的软件堆栈、开放的平台、英特尔开发者云平台。这也是一层层突破英伟达强大的AI生态壁垒。
“我们推出的开放联盟去搭建面向企业AI的开放平台,能够真正的帮助各个不同的RAG(检索增强生成)组件中实现互联互通,能够实现共同的努力,去构建架构蓝图这种的,保证在企业AI当中,有一个整体的可工作的框架。”李映同时表示,
“英特尔开发者云平台不仅能帮助开发者最早接触到英特尔最新的硬件,更重要的是能够保证各种开源框架、组件在一个环境中,能够保证这种框架之间的兼容性,开发者能够拥有更好的用户体验,提升开发效率。”
RAG对于企业AI来说至关重要。因为目前AI模型比较通用,企业的数据与这些AI模型不太相关,把企业的隐私数据和通用的模型结合在一起就变成了一个很大的挑战。
“很多人都非常坚定RAG可以解决企业的数据知识增强的问题。因为有一个开放的生态系统,有一个类似的实施标准的平台,就很容易把数据中心级别的RAG系统运行在企业的AIPC上,可以变成一个个人知识库。”戴金权说。
英特尔公司市场营销集团副总裁、中国区云与行业解决方案部总经理梁雅莉就说,对于企业AI而言,开放、易部署、可扩展、可靠非常重要。
英特尔AI的最新全景图
构建开放、繁荣的AI生态,是英特尔分走AI蛋糕,需要与众多生态合作伙伴一起努力的方向。
藏开英特尔企业AI生态之下的,就是英特尔完整的AI生态全景图,包含了至强6、Gaudi3、酷睿Ultra、英特尔AI网络连接卡在内的一系列硬件及oneAPI等软件产品。
Intel Vision上英特尔展示的硬实力,最受关注是Gaudi3,直接看数据,相比上一代Gaudi 2,Gaudi 3在BF16精度下可提供4倍的AI计算能力、1.5倍的内存带宽、2倍的网络带宽,支持大规模系统横向扩展,最多可扩展至8192个芯片的参考架构。
对比英伟达H100,训练Llama 7B、13B以及GPT-3 175B模型,Gaudi3速度比H100快40%~70%。
推理Llama 7B、70B以及Falcon 180B模型,速度比H100快50%,能效提高40%,在较长输入和输出序列上的推理性能优势更大。比H200也有30%的速度优势。
相比英伟达的GPU,英特尔Gaudi提出了TCO的优势,这是Gaudi3打动客户的重要特性。
除了专用的AI加速器,英特尔的另一个杀手锏是至强处理器。
去年生成式AI更关注模型的训练,对成本和功耗没那么重视,企业都希望训练一个自己的通用大模型。
“今年企业的关注重点转到了推理。对企业来说,大模型训练出来是需要推理变现且能够盈利。”英特尔公司市场营销集团副总裁、中国区数据中心销售总经理、中国区运营商销售总经理庄秉翰说,“目前的利润大多基于通用数据中心的应用,尤其是现在CPU的迭代非常迅速,每一代CPU又会带来新的性能提升和能耗减少。”
英特尔为面向数据中心、云和边缘的下一代处理器进行了品牌焕新,即英特尔至强6。
“至强6全新的简洁品牌则是一个产品组合,可以解决数据中心在性能、功耗,以及多元工作负载等方面的各种问题。”庄秉翰介绍,配备能效核(E-cores)的英特尔至强6处理器将于2024年第二季度推出,提供卓越的效率,配备性能核(P-cores)的英特尔至强6处理器将紧随其后推出,带来更高的AI性能。
能效核的英特尔至强6处理器(代号为Sierra Forest),与第二代英特尔至强处理器相比,每瓦性能提高2.4倍,机架密度提高2.7倍。客户能以近3:1的比例替换旧系统,大幅降低能耗,实现可持续发展目标。
性能核的英特尔至强6处理器(代号为Granite Rapids),包含了对MXFP4数据格式的软件支持,与使用FP16的第四代英特尔至强处理器相比,可将下一个令牌(token)的延迟时间最多缩短6.5倍,能够运行700亿参数的Llama-2模型。
雷峰网(公众号:雷峰网)了解到,对于130亿参数以下的大模型,英特尔至强CPU都能满足。
“对企业来说,大模型也处在初始阶段,不需要立即部署一个很大的GPU集群,这对于运维和开发来说都是很大的挑战。如果采用逐步部署生成式AI的节奏,可以通过CPU先做一些应用部署。”庄秉翰指出。
在边缘端,英特尔发布了涵盖英特尔酷睿Ultra、英特尔酷睿、英特尔凌动处理器和英特尔锐炫显卡系列产品在内的全新边缘芯片,主要面向零售、工业制造和医疗等关键领域。英特尔边缘AI产品组合内的所有新品将于本季度上市,并将在今年年内获得英特尔Tiber边缘平台的支持。
在客户端的AI PC,英特尔展示了即将推出的产品。包括将于2024年推出的下一代英特尔酷睿Ultra客户端处理器家族(代号Lunar Lake),将具备超过100 TOPS平台算力,其中神经网络处理单元(NPU)将有超过46 TOPS的算力。
在AI全景图里,还有互联产品。
英特尔中国网络与边缘事业部首席技术官、英特尔高级首席AI工程师张宇说,“现在的AI系统还是采用冯诺依曼的架构,这个系统不仅要看它的算能,还要看它数据传输的能力。”
通过超以太网联盟(UEC),英特尔正在驱动面向AI高速互联技术(AI Fabrics)的开放式以太网网络创新,并推出一系列针对AI优化的以太网解决方案。
英特尔的产品组合包括英特尔AI网络连接卡(AI NIC)、集成到XPU的AI连接芯粒、基于Gaudi加速器的系统,以及一系列面向英特尔代工的AI互联软硬件参考设计。
从客户端到边缘端再到云端的推理和训练,再加上网络和软件,英特尔展示了最新的AI全景图,最重要的是英特尔宣布组建开放的企业AI生态,这才是英特尔能用强大的硬件在AI市场分到蛋糕的关键。
并且,英特尔在生成式AI从训练转向推理的关键节点,选择企业AI这一对生成式AI更有付费能力的市场构建开放生态,在恰当的时间点选择了正确的战略。
接下来就是英特尔的执行力以及生成式AI能否帮助企业盈利的问题。雷峰网
雷峰网原创文章,未经授权禁止转载。详情见转载须知。