0
雷锋网按:即使强如谷歌,短时间内也无法从Nvidia口中夺过AI硬件市场这款肥肉。
图形芯片制造商Nvidia的股价在过去一年时间里翻了三番,其GPU如今已经成了AI领域最受欢迎的深度学习主流平台。Nvidia的GPU原本是为生成电脑游戏和仿真图形而设计的,如今却被用来处理拥有数百万条数据的,大型深度学习网络训练中的密集计算部分。
上周Google在其年度开发者大会上,推出了第二代Tensor处理单元——Cloud TPU。据雷锋网了解,这是一款用于加速Google使用的深度学习数学模型的定制化芯片。Google于两年前将第一代TPU引入了它的服务器基站,并于去年正式对外发布。第一代TPU只能处理深度学习的推理部分,运行已经训练有素的模型。Google表示,Cloud TPU比Nvidia的商用GPU更适合用于深度学习训练。
据雷锋网了解,Google希望未来能够通过Google Cloud向其他公司提供其AI硬件。此外,Google还计划为开展公开AI研究的研究人员提供1000个Cloud TPU。不过,这些Cloud TPU的真正用意,似乎是为了增强Google cloud的具竞争力。在云服务市场,亚马逊和微软两大巨头已经将Google远远甩在了身后,Google不得不全力寻求差异化竞争。
Cloud TPU对Nvidia的影响的是双重的。一方面,Nvidia目前在AI硬件这片新兴市场仍占据着主导地位,Cloud TPU则给了开发者更多的选择。另一方面,Google 上周发布Cloud TPU时透露,其公司内部仍然很依赖Nvidia的GPU,而且其云服务也将支持Nvidia的下一代GPU Volta。
综合考虑,我认为Google未来在AI硬件市场将遭遇严峻挑战,主要原因有二:
首先,Cloud TPU将用户锁定在了TensorFlow框架以及Google Cloud云服务中。
伯恩斯坦研究公司高级分析师史蒂西·拉斯贡(Stacy Rasgon)说道:
“如果你使用的是TensorFlow框架,那么Cloud TPU很棒。但如果你不想使用TensorFlow框架呢?Nvidia的优势在于你不会被它的服务锁住,这一点很重要。”
Nvidia的GPU在Google、亚马逊、微软和IBM等主流云服务厂商的云端都是可用的。开发者们可以根据自己的喜好自由选择,并随时更换云服务厂商。此外,Nvidia还对其硬件进行了优化,能够运行Caffe、Torch和PaddlePaddle等多种深度学习框架。AI市场目前还很年轻,谁也不知道哪种框架会最终胜出。因此,将自己束缚在Google的TensorFlow框架中,对任何一家公司来说都是冒险。
AI创业公司Clarifai的创始人兼CEO Matt Zeiler表示:
“很明显,Cloud TPU是Google吸引你使用Google Cloud,并将你锁定其中的一种策略。”
虽然学术圈可以免费使用Cloud TPU,但只能使用TensorFlow框架这一限制,使其魅力大打折扣。加州大学伯克利分校副教授Alexei Efros在一封电子邮件中说道:
“对我们而言,使用Cloud TPU的最大阻力就在于它只能运行TensorFlow。因为我的实验室中用到了很多不同的软件包,PyTorch似乎最受欢迎。Nvidia Titan X目前仍是我们的主力平台,至于未来,我们拭目以待吧”。
即便对于那些已经全面采用TensorFlow的创业公司,阻力依然存在,那就是如何获得Cloud TPU。AI创业公司Bonsai的联合创始人兼CEO Mark Hammond表示:
“我们的项目建立在TensorFlow框架之上,因此Cloud TPU肯定是我们正在探索的。任何使AI基础架构更好、更快、更便宜的事物,都是Bonsai和Bonsai的客户乐见其成的。”
Google的另一大软肋在于,它不会像Nvidia那样直接向客户出售芯片。Zeiler表示,很多深度学习创业公司都喜欢用自己的硬件训练,因为在云端存储大量训练数据的成本可能非常高昂。比如Clarifai就选择购买Nvidia 的GeForce游戏显卡,在自己位于新泽西州的数据中心训练神经网络。Zeiler说道:
“我们之所以使用自己的硬件和GPU训练,就是因为它成本更低,尤其是考虑到我们拥有庞大的实验量和数据集。”
Nvidia的真正竞争更可能来自芯片公司。目前,数十个AI芯片创业公司正冉冉升起,英特尔甚至为了收购顶级芯片创业公司Nervana,耗资超过4亿美元。
Zeiler表示,随着时间推移,TPU可能会影响到GPU市场,但影响力不仅仅来源于Google,毕竟其他芯片制造商不会干坐着。
AI芯片创业公司Cerebras Systems的联合创始人兼CEO Andrew Feldman认为,Nvidia最大的问题在于,GPU是为生成图形而非处理AI算法所设计的。Feldman说道:
“我不认为GPU很适合机器学习,它只是比英特尔的CPU更好而已。不过GPU在过去25年间针对不同问题进行了优化。”
Nvidia也意识到了这一点。因此它在最新的图形芯片架构中加入了专门的Tensor Cores计算核心。Tensor Cores针对利于深度学习操作的数学运算进行了优化。有了Tensor Cores之后,Nvidia的GPU越来越像专业的AI处理器了,而不仅仅是用于生成图形的工具。Nvidia加速计算副总裁Ian Buck说道:
“你将看到我们在GPU中增加更多的AI功能以及专业化功能。”
对于AI领域日益激烈的竞争,Nvidia表示,现在市场增长太快了,每家企业都有存在的价值。Buck说道:
“我认为这是一个爆炸式增长的市场,每个人都有发展的空间。”
via forbes
雷峰网版权文章,未经授权禁止转载。详情见转载须知。