您正在使用IE低版浏览器,为了您的雷峰网账号安全和更好的产品体验,强烈建议使用更快更安全的浏览器
此为临时链接,仅用于文章预览,将在时失效
业界 正文
发私信给包永刚
发送

0

谷歌TPU3.0性能提升8倍,但优势遭微软、Facebook软硬“围攻”

本文作者: 包永刚 2018-05-09 19:44 专题:Google I/O 2018
导语:谷歌首席执行官Sundar Pichai宣布推出Tensor Processor Unit 3.0,并表示TPU3.0的计算性能相比去年提升了八倍。

谷歌无论是在自动驾驶还是AI领域都具备优势,2018谷歌I/O大会的重点之一也是AI技术的发展。在Goole I/O 2018上,谷歌首席执行官Sundar Pichai宣布推出Tensor Processor Unit 3.0,并表示TPU3.0的计算性能相比去年提升了八倍,可达 100PFlops(每秒 1000 万亿次浮点计算)。

谷歌TPU是专门是为机器学习定制的专用芯片(ASIC),也是为谷歌深度学习框架TensorFlow而设计。据悉相比一般的GPU图形处理器,TPU可以以8位低精度计算节省晶体管,对精度影响很小同时可以大幅降低功耗、加快速度,同时还有脉动阵列设计,优化矩阵乘法与卷积运算,并使用更大的偏上内存,减少对系统内存的依赖。另外,它还第一次使用了液冷散热,可以更高效地服务数据中心,便于定制硬件方案。

由于谷歌去年已经发布了第二代产品,所以对于今年TPU3.0的发布我们并不感到意外,不过Sundar Pichai并没有透露关于TPU3.0的更多细节,但可以看到谷歌希望以TPU为基础让Google Cloud像Amazon AWS一样无处不在。

 谷歌TPU3.0性能提升8倍,但优势遭微软、Facebook软硬“围攻”

微软Brainwave延迟比TPU低5倍

除了谷歌,其他科技巨头也在自主研发AI芯片,虽然从公开信息中我们可以了解到Facebook和亚马逊自主研发芯片还处于早期阶段,自主研发定制AI芯片的目的也还不够清楚,但可以看到的是当数据量越来越大,且拥有最多和最好的数据成为公司重要竞争力的时候,Nvidia的GPU可能不足以处理这些数据,需要超高效的定制芯片。当然,Sundar Pichai还表示,对于通过自主研发定制芯片满足深度学习需求而言,散热成为越来越大的难题,这也是谷歌不得不第一次在数据中心使用冷却液的原因。

所以,不仅科技巨头的入局,AI芯片的创业公司也开始涌现并获得资本青睐,像Cerebras Systems、SambaNova Systems和Mythic等初创公司大多数已经筹集了超过3000万美元,它们希望在具体的应用中通过其研发的AI芯片完成机器学习的任务,并且性价比能超越Nvidia。

当然,有新入局者也有传统芯片巨头,英特尔使用FPGA参与AI芯片的竞争,并且随着机器学习的需求的变化,英特尔设计出更加灵活模块化的FPGA,但FPGA的成本以及高门槛成为了FPGA应用及推广中的难度。不过,与谷歌的其他竞争对手也押注定制芯片(ASIC)不同,微软认为FPGA比ASIC更灵活,并且标准Intel Stratix FPGA的性能至少可以与定制芯片相媲美。因此微软选择押宝FPGA,雷锋网消息,在5月7日开幕的微软Build2018大会上,微软CEO  Satya Nadella发布了Project Brainwave预览版,并称延迟比TPU低5倍。微软还称利用Project Brainwave平台的客户可以使用标准的图像识别模型处理100万张图片,单个图像在1.8毫秒内就能处理,比现在的任何竞争对手的云服务都要好。

不过,FPGA在云计算中并没有被广泛使用,而微软正在将FPGA整合到其整个数据中心网络,成为一种硬件微服务。微软不可能不了解押宝FPGA面临的成本以及高门槛高的困难,但由此可见其决心,同时也让我们看到微软正在用FPGA参与竞争,这当然是谷歌不可忽略的对手。

PyTorch新版本挑战TensorFlow

前面已经提到,自主研发芯片只是科技巨头们为更好处理数据,让数据产生更大的价值,想要对对开发者产生更大的吸引力还需要配套的工具。因此看到谷歌TPU之上有TensorFlow,Brainwave也支持微软CNTK和TensorFlow框架。

所以谷歌如果想要把开发人员留住,不仅需要更快的芯片,机器学习的工具也十分重要,让开发人员进入其GCP(Google Cloud Platform)和其他服务,并使用TensorFlow。这也是谷歌能否从目前核心的广告业务中逐渐扩展到新的领域并保持领先优势的关键。

但随着Facebook越来越希望用像PyTorch这样的框架来挑战TensorFlow,谷歌想保持领先变得困难。雷锋网消息,今年F8开发者大会的第二天,Facebook宣布PyTorch 1.0beta版将在今年夏天和用户见面,并提前展示了这款新框架的特性。据Facebook介绍,PyTorch 1.0结合了Caffe2和ONNX模块化、面向生产的特性,也结合了PyTorch灵活、面向研究的特性,为广泛的AI项目提供从科研原型到生产部署的快速、无缝途径,让用户可以快速实验,通过能在强制执行模式和声明执行模式之间无缝切花的混合前端优化性能。

需要了解的是,ONNX(开放神经网络交换)是Facebook去年联合多家软硬件公司发布的神经网络模型转换协议,现在新增了对苹果的Core ML、百度PaddlePaddle、高通SNPE的支持,再加上原本支持的MXNet、Caffe2、PyTorch、TensorFlow、CNTK等框架,实现了神经网络模型在各种主流框架之间的转换。

因此,TPU3.0只是谷歌服务其生态保持领其先地位的第一步,硬件之上的TensorFlow同样重要。微软基于FPGA的Brainwave平台以及Facebook的PyTorch 1.0软件和硬件都与谷歌形成了竞争关系,未来谷歌能否保持领先地位还需要看其是否能做出快速的回应。

雷锋网编译,via techcrunch


现在关注“雷锋网”微信公众号(leiphone-sz),回复关键词【2018】,随机抽送价值 3999 元的参会门票 3 张

相关文章:

Build 大会中的 AI:微软 AI 云服务全线更新

Google I/O 2018 : 这里是所有你不能错过的大新闻

谷歌AI大一统,Google Research 升级为 Google AI

【评测】谷歌TPU二代来了,英伟达Tesla V100尚能战否?

雷峰网原创文章,未经授权禁止转载。详情见转载须知

分享:
相关文章
最新文章
请填写申请人资料
姓名
电话
邮箱
微信号
作品链接
个人简介
为了您的账户安全,请验证邮箱
您的邮箱还未验证,完成可获20积分哟!
请验证您的邮箱
立即验证
完善账号信息
您的账号已经绑定,现在您可以设置密码以方便用邮箱登录
立即设置 以后再说