0
本文作者: 李诗 | 2018-05-24 14:28 |
整个5月,各大巨头扎堆一样举办开发者大会、人工智能大会。倒是给了我们一下子看完各大巨头人工智能布局的机会。
雷锋网消息,美国时间5月23日,英特尔人工智能开发者大会(AIDevCon 2018)在旧金山艺术宫开幕。
会议上,英特尔副总裁、AI事业部(AIPG)负责人Naveen Rao介绍了英特尔AI的最新进展:英特尔至强处理器的性能有了进一步的提升,发布了新一代专为机器学习设计的神经网络处理器(NNP)芯片——Nervana NNP-L1000 (Spring Crest);介绍了nGRAPH平台、BigDL大数据开源平台、OpenVINO等开源软件工具;展示了用Movidius 神经元计算棒来进行AI作曲。
在雷锋网看来,英特尔在人工智能上的布局很明晰,近一年来,其反复提到的“英特尔人工智能全栈解决方案”揭示出其AI基础架构。
英特尔人工智能全栈式解决方案是一个完整的产品组合,包括至强可扩展处理器、英特尔Nervana神经网络处理器和FPGA、网络以及存储技术等;针对深度学习/机器学习而优化的基于英特尔架构的数学函数库(Intel MKL)以及数据分析加速库(Intel DAAL)等;支持和优化开源深度学习框架如Spark、Caffe、Theano以及Neon等;构建以英特尔Movidius和Saffron为代表的平台以推动前后端协同人工智能发展。
在会议上,Naveen Rao讨论的重要更新之一是“英特尔至强可扩展处理器”的优化。与前几代相比,新一代的处理器在训练和推理方面都有显着的性能提升,这对于许多希望利用现有基础架构的公司来说是有益的。
随后,Naveen Rao介绍了全新一代NNP系列芯片。作为曾经不可撼动的芯片巨人,英特尔在AI时代却面临诸多挑战。随着像Nvidia和ARM这样的公司赢得了图像处理单元(GPU)的声誉,且谷歌也已经设计出针对AI的专用芯片,英特尔的通用CPU芯片显然落后了。
2016年,英特尔并购专注于深度学习专用芯片的加州创企Nervana Systems,Nervana首席执行官兼联合创始人Rao加入英特尔,短短几个月后,Rao就以火箭般的速度晋升为英特尔人工智能事业部总负责人。可以看出,英特尔重金投入AI芯片,且将其作为发展人工智能的核心.
2017年10月,英特尔曾介绍了专为机器学习设计的神经网络处理器(NNP)系列芯片,被命名为Lake Crest。Lake Crest可以加速多种神经网络算法框架,比如谷歌的TensorFlow 、Nervana的Neon、Facebook的Caffe等。英特尔称Lake Crest能够比比GPU更快、功耗更低、性能更好。但当时,英特尔只将NNP芯片供应给一小部分英特尔合作伙伴,计划在2017年年底前开始出货。
在本次的英特尔AI开发者大会上,Naveen Rao介绍了新一代的NNP芯片——Nervana NNP-L1000(Spring Crest),是Lake Crest发布七个月后的全面更新,性能比上一代产品提升了3-4倍。Rao介绍到,Spring Crest会有多项更新,其也将是英特尔第一款商业NNP芯片,将不止是提供给小部分合作伙伴,将在2019年发货。
Naveen Rao谈到,在英特尔Nervana NNP-L1000中,我们还将支持bfloat16,这是一种业界广泛用于神经网络的数字格式。随着时间的推移,英特尔将在我们的AI产品线上扩展bfloat16支持,包括英特尔至强处理器和英特尔FPGA。
而谷歌在AI芯片上的速度似乎已经赶超英特尔。2017年谷歌I/O大会上,谷歌就宣布正式推出第二代TPU处理器,第二代TPU处理器加深了人工智能在学习和推理的能力,据谷歌的内部测试,第二代TPU芯片针对机器学习的训练速度比目前市场上的GPU节省一半时间。2018年,谷歌传奇芯片工程师Jeff Dean连发了十条Twitter宣布谷歌TPU首次对外全面开放,第三方厂商和开发者可以每小时花费6.5美元来使用它,但需要先行填表申请。外界认为这意味着AI芯片和公有云市场将迎来新的变革。看来,英特尔的NNP系列与谷歌的TPU系列是直接对标的产品。
虽然处理器和芯片是英特尔人工智能布局的核心,但是从本次大会来看,英特尔也将更多目光放在了扶持开发者身上。
Naveen Rao谈到,“我们认识到,单靠英特尔无法实现人工智能的全部愿景。相反,我们需要联合开发者、学术界、软件生态方共同来解决这些问题。今天,我很高兴看到开发人员加入我们的示范、研究和实践培训。“
大会上,英特尔和合作伙伴介绍了BigDL分布式深度学习框架、OpenVINO、nGRAPH平台等开源软件工具。
BigDL是一款基于Apache Spark的分布式深度学习框架,它可以无缝的直接运行在现有的Apache Spark和Hadoop集群之上。
据了解,英特尔与百度也展开了合作,百度云在即将发布的数据分析平台中将整合BigDL最新版本。未来英特尔还将联合百度云智学院推出完整的“数据分析+BigDL”培训课程。
OpenVINO这一套新的开源软件工具则主要用于视觉应用与神经网络优化。可以让开发者更简单地在边缘设备上部署视觉计算和深度学习能力。
nGRAPH则是面向开发者的深度神经网络模型开源编译器,可以直接支持TensorFlow/MXNet以及Neon,还可以通过ONNX支持CNTK、PyTorch、Caffe2。
除了基层技术和软件框架之外,英特尔还展示了AI多种场景应用。
首先是AI谱曲。英特尔在现场演示了人类演奏者和AI配合起来作曲,演奏者输入一段音符,AI可以配合给出相同风格的下一段,AI还可以用不同的乐器来配合,例如吉他配合键盘。从技术上来看,这需要通过深度学习从大量的数据库中训练,这样的训练需要很高的运算。
而英特尔实现的方式却很简单,仅用了一个U盘大小的Movidius神经元计算棒。去年7月英特尔就发布了这款产品,是是业界首款基于USB的超低功耗的嵌入式神经网络的开发工具,它可以工作在标准USB接口上。它内置了Myriad2的VPU,可以把预训练好的Caffe或者TensorFlow的模型直接嵌入到神经网络,直接通过所谓的U盘对神经网络推理进行加速,从而将人工智能应用部署在嵌入式以及边缘环境上。雷锋网了解到,海康威视的智能相机、大疆的无人机也采用了英特尔Movidius技术。
另一个应用是利用英特尔AI进行3D动画渲染。这是合作伙伴ZIVA公司基于英特尔至强处理器进行的研究,现场看来,渲染出的狮子十分逼真。
雷锋网了解到,英特尔近来采取不少措施,将自己的核心AI技术能力提供给企业和开发者,希望能有更多的合作伙伴一起打造软件+硬件+生态全方位一体的人工智能战略。Naveen Rao谈到,事实上,当我思考什么能帮助我们加快向以人工智能为导向的计算未来转型时,我可以确信的是我们需要提供即广泛又能达到企业规模的解决方案。
在这周的微软人工智能大会上,微软宣布推出Project Brainwave预览版,以加速深度神经网络训练和部署,该技术由英特尔的现场可编程门阵列(FPGA)和芯片Stratix 10提供支持。现在,英特尔的合作伙伴还有谷歌、AWS、百度、Novartis、C3 IoT等。
现在关注“雷锋网”微信公众号(leiphone-sz),回复关键词【2018】,随机抽送价值 3999 元的参会门票 3 张
相关文章:
雷峰网原创文章,未经授权禁止转载。详情见转载须知。