0
本文作者: 任然 | 2019-04-22 09:40 |
2016年前后,以深度学习为核心的AI技术浪潮带动了AI芯片的产生,而随着智能物联网时代的到来,AI计算又从云走向边缘节点,对终端AI芯片低延时、低功耗、性价比的述求日益提升。
虽然目前已有不少AI芯片出现,但都是在某些具体任务上具备超强的能力,仍处于对特定算法的加速阶段,在通用性和适应性上仍有较大差距。
2018年第三季度,清华系AI芯片初创公司清微智能完成近亿元天使轮融资,成为知名科研团队产品走向商业化的代表之一,其AI芯片产品采用了可重构架构来提升AI芯片的能效比和可编程性。
清微智能的核心技术源于清华大学微电子所魏少军教授领导的可重构计算团队,其在新型计算架构领域耕耘多年,Thinker系列AI芯片在国内外具有广泛影响。核心团队成员来自清华大学和NVIDIA、SONY、高通等公司,在半导体行业具备多年经验。
面对竞争激烈的AI市场,清微智能的产品怎样才能快速获得市场认可?科学家们又是如何看待商业化过程中的种种问题?就此,雷锋网与清微智能创始人尹首一博士展开了一次对话。
清微智能创始人尹首一博士
目前市面上的AI加速芯片,如GPU、FPGA和ASIC,都是在某些具体任务上具备超强的能力,难以在灵活性和计算效率上达到综合优势。
尹首一博士指出,从应用以及用户体验的角度出发,要实现满足AIoT需求的AI芯片必须满足三个条件:
第一,可编程性,只有具备可编程性才能满足不同IoT场景下的不同AI算法的需求;
第二,对计算密集型和访存密集型算法都非常友好,因为今天的AI算法就具备这样的特点;
第三,超高能效,某些场景下我们希望芯片能耗是毫瓦量级,有些场景甚至需要微瓦量级才能满足长时间的IoT计算需求。
他表示,一个真正理想的计算应该是软件和硬件的架构一模一样,软件是什么样的拓扑结构,硬件就应该是怎样的拓扑结构;软件需要什么样的运算,硬件需要存在这样的运算资源,硬件功能和架构能够动态地按照软件实时进行改变。
据悉,从2015年年开始,清华大学Thinker芯片团队开始采用可重构架构的技术路线实现超高能效的神经网络计算,在基本的乘法累加部件里实现不同位宽的自适应,很好地支持超低位宽的神经网络;在基本处理单元层面实现电路级重构,支持神经网络中的不同算子;在处理单元阵列实现架构级重构,支持不同类型的神经网络。
在商业模式上,清微智能将为边缘设备和物联网提供包括芯片、软件、算法和系统的全栈式低功耗智能计算解决方案。
“以往那种只做一个部件,或者做比较局部的产品,可以拿来展示技术,但在商业化的市场上很难长期生存。”尹首一博士表示,“清微智能的芯片会以SoC或者SIP的形式提供系统级完整方案。针对客户需求提供算法、软件、芯片等整套解决方案,让客户可以用最小的成本做出自己的产品。”
今年上半年,公司业务将围绕语音领域开展,完成语音芯片“TX 210”的量产计划,推出完整的芯片算法解决方案。下半年,公司将发布“TX510”等产品,进一步将会在智能家居、智能零售、智能安防、机器人等领域进行应用。
雷锋网观察到,目前外界对国产芯片商业化的态度普遍较为苛刻,包容度不如商业航天等领域。
对此,尹首一博士认为,核心问题确实还是在于大家要真正踏实的把产品做好,这一点永远都是第一位的。
“其实在国内的AI芯片领域,乃至更广泛一点的整个芯片行业,实际上最主要的问题还是供给能力不足。”他指出,“AI芯片从2016年开始就已经有许多公司在做,然而今天在智能音箱上用的这些算法,大多数其实还是跑在CPU上,安防监控中的人工智能算法也大多跑在GPU。”
AI芯片的发展经过了近三年时间,大概有四五十家公司参与其中,但是AI芯片和其他各类芯片一样,技术和产品落地都需要经过时间的检验。“我觉得这个情况不会长期存在,前面几年实际上是技术推动产业发展,后面会逐渐过渡到需求推动发展,很快会有很多新场景出现。”尹首一博士表示,当AI技术更加多样化的落地到大家的生活中之后,对芯片的需求和带动会更加明显,会有更多不同类型的芯片能够应用起来。现在的芯片行业,大家对国产化的希冀远比三年前要更强烈,这个基础共识是明确的。企业的第一位任务是把产品做好,只要有实用的产品出现在市场,让用户能用了、用好了,就会实现正反馈,AI芯片这个产业将会真正发展起来。
提到AI芯片商业化,也许目前最广为人知的当属NVIDIA。
自2006年推出G80架构以来,一直在不遗余力的推广其CUDA通用计算平台。时至今日CUDA已经非常成熟,形成了强大的生态系统,这也为NVIDIA扩展其它基于GPU的事业提供了先天便利。
在AI大潮来临后,CUDA生态过去的强大,能否继续为其创造不可逾越的壁垒?在面对AI运算的新任务时,效率高算力强的自研AI芯片能否赢得与老牌强者掰手腕的机会?
对此,尹首一博士明确表示,CUDA本身就是NVIDIA核心优势的组成部分。不可否认的是,GPU占据了天时,现在基于CUDA的训练工具和优化水平,已经形成了一个事实上的标准。NVIDIA的GPU可以灵活的cost down,轻松覆盖几百瓦到几十瓦的区间。虽然眼下GPU的能耗比并不是最优,但如果你的产品相比GPU并没有颠覆性的进步,怎么会有用户甘心情愿的在你这个不成熟的平台上部署项目呢?
“只有有分量的、成规模的用户迁移过来,产品才有可能真正商用,才能说基本上具备了和NVIDIA过过手的基础。”
尹首一博士解释道,早期大家基于CUDA环境进行开发的过程帮助NVIDIA发现并解决了各种问题,已经逐渐把这套方案打磨到非常好用的水平。“若说技术好坏,当然是各有各的高招。”尹首一博士强调,“然而没有人配合你打磨方案的话,即便芯片技术再好,不经过实际检验,很多问题都发现不了,也就没有办法让它真正成熟乃至商用。”
对于这些生态已经完善、在国际国内的工业产业界已经形成共识的领域,有可能的路径就是在现有生态里寻找技术创新的机会,如果能做得足够好,经过漫长的跟跑后,或许才能争取到从参与者变成主导者的机会。
很多人都听过“站在风口,连猪也能飞上天”这句洗脑名言。在AI大潮到来时,也的确有一些公司或团体,仅凭一句AI、一个口号就能拿到大笔融资。而从2018年下半年开始,我们明显感到AI芯片开始越过Hype Cycle(技术成熟度曲线)第一个峰值的顶点,未来两三年势必面临大考。作为旁观者,我们不免担心,在即将到来的关键期,AI芯片公司该如何保护并发展自己?
对此,尹首一博士表示,即便是在硅谷这种相对更成熟的环境下,其实也会有这种问题。“宏观上来讲,在一个行业刚开始起步的时候,市场上有一点泡沫其实是正常的,甚至可能是必然的。”他认为,只要大家能持续关注这个产业,总会有一些真正在做事的公司能够把事情做好,那它自然就会吸引到新的资源,这个行业还是能发展。
不过他也坦言,微观来讲,若要具体到一家公司,商业化成功还需要一点点运气。
“所谓天时地利人和,这是个非常感性的问题。历史上我们也看到很多公司技术很好但运气稍差,做企业本就是九死一生的事。”
他表示,现在大家面临的一个很大的问题是产品定义。之前的两三年时间里,大家对AI芯片这个产品形态有了初步的认识,对终端的AI算力需求形成了共识。未来几年的历史使命,就是真正做好产品,为AI的杀手级应用量身定制芯片。
在采访的最后,尹首一博士总结道,寻求发展唯一的办法就是找到合适的路径,自己快点往前跑,让技术和产品能够尽早落地,解决了实际的问题才有机会和资格去谈后面的事。“只有当AI芯片越来越普遍,大部分产品都带有AI能力的时候,AI芯片市场才能算是走到了一个标志性的阶段,智能化社会才会真正到来。”雷锋网雷锋网
相关文章:
AI芯片公司清微智能获亿元天使轮融资,可重构计算加速走向产业化
清华大学尹首一:AI芯片计算架构创新是实现AIoT的必然途径 | AIoT+智慧城市峰会
雷峰网原创文章,未经授权禁止转载。详情见转载须知。