您正在使用IE低版浏览器,为了您的雷峰网账号安全和更好的产品体验,强烈建议使用更快更安全的浏览器
此为临时链接,仅用于文章预览,将在时失效
芯片 正文
发私信给包永刚
发送

1

采用Intel 4制程,Loihi 2神经拟态计算芯片神经元最多达100万个

本文作者: 包永刚 2021-10-01 11:50
导语:神经拟态计算的商业化,需要三管齐下。

雷锋网消息,英特尔今天推出第二代神经拟态研究芯片Loihi 2,每个芯片最多有100万个神经元。

Loihi2采用了预生产版本的Intel 4制程节点,Loihi则采用英特尔14nm工艺,与以往的制程技术相比,Intel 4制程节点采用的极紫外光刻(EUV)技术简化了布局设计规则,使Loihi 2的快速开发成为可能。

采用Intel 4制程,Loihi 2神经拟态计算芯片神经元最多达100万个

神经拟态计算是在传统半导体工艺和芯片架构上的一种尝试和突破,通过模拟人脑神经元的构造和神经元之间互联的机制,能够在低功耗以及少量训练数据的条件下持续不断自我学习,大幅提高了能效比。

神经元作为神经拟态计算突破的关键,Loihi 2相比上一代芯片神经元数量提升了8倍,基于核心大小为0.21 mm2 的Loihi 2,最多支持 8192 个神经元,对比核心尺寸为0.41 mm2的Loihi,最多支持1024 个神经元。

Loihi2之所以能够在芯片面积为二分之一的前提下实现八倍的神经元数量提升,制造工艺是关键。英特尔此前介绍,Intel 4是其首个完全采用极紫外光刻(EUV)技术的制程节点,EUV也将成为英特尔实现再次实现制程领先的关键。

除了硬件,与神经拟态芯片匹配的软件也非常重要。与Loihi2一起发布的还有用于开发神经启发应用的开源软件框架Lava,具备开放、模块化、可扩展的特性。Lava允许研究人员和应用开发人员在彼此取得的成果上进一步开发,并集中到一组通用的工具、方法和函数库中。

同时,Lava能够在跨越传统和神经拟态处理器的异构架构上无缝运行,实现跨平台执行以及与各种人工智能、神经拟态和机器人框架的互操作性。开发人员无需使用专门的神经拟态硬件即可开始构建神经拟态应用,并且可以为Lava代码库做出贡献,包括将其移植到其他平台上运行。

“洛斯阿拉莫斯国家实验室的研究人员一直在使用Loihi神经拟态平台来研究量子计算与神经拟态计算之间的权衡,并在芯片级上实现学习流程。这项研究显示了脉冲神经网络和量子退火路径在解决硬优化问题上一些激动人心的等效性。”洛斯阿拉莫斯国家实验室科学家Gerd J. Kunde表示,

“除此之外,我们还证明了之前被认为无法在神经拟态架构上实现的反向传播算法(训练神经网络的基本构建模块)可以在Loihi上高效地实现。我们的团队很高兴能够借助Loihi 2芯片继续进行这项研究。”

早期的评估表明,与在原始版本的Loihi上运行的标准深度网络相比,在准确性没有降低的情况下,Loihi 2上每次推理的运算次数减少了60多倍。

在连接性和集成方面,Loihi 2芯片将支持以太网接口,与更广泛的基于事件的视觉传感器实现无胶合集成,同时Loihi 2芯片还拥有更大的网状网络,这解决了Loihi中客观存在的一处局限。

当然,神经拟态计算的发展也需要各方的努力,英特尔此前已经成立了英特尔神经拟态研究社区(INRC),目前INRC已增加到约150个成员机构,今年新增的成员包括福特(Ford)、佐治亚理工学院(Georgia Institute of Technology)、美国西南研究院(SwRI)、美国菲力尔公司(Teledyne FLIR)。

英特尔目前通过神经拟态研究云服务向加入INRC的成员提供两个基于Loihi 2的神经拟态系统:用于早期评估的单芯片系统Oheo Gulch和即将开放的八芯片系统Kapoho Point。Lava 软件框架可在GitHub 上免费下载。Loihi 2和Lava的演示教程将在10月举办的“Intel Innovation”活动中呈现。

至于神经拟态计算的商业化,则需要“三管齐下”,首先,需要根据算法和应用研究的结果对神经拟态硬件进行持续地迭代改进。其次,还需要开发通用的跨平台软件框架,以便开发人员可以对来自不同开发群体的最佳算法理念进行基准测试、整合和改进;最后,产业界、学术界和政府领域之间要深入合作,建立一个丰富、高效的神经拟态生态系统,以探索近期可实现商业价值的落地。雷锋网雷锋网

雷峰网原创文章,未经授权禁止转载。详情见转载须知

分享:
相关文章
最新文章
请填写申请人资料
姓名
电话
邮箱
微信号
作品链接
个人简介
为了您的账户安全,请验证邮箱
您的邮箱还未验证,完成可获20积分哟!
请验证您的邮箱
立即验证
完善账号信息
您的账号已经绑定,现在您可以设置密码以方便用邮箱登录
立即设置 以后再说