0
本文作者: 思佳 | 2017-05-05 09:40 |
雷锋网按:深度神经网络发展至今,已经使机器解决了许多超过人类想象的问题。然而这种人工智能算法模型存在一个不可控因子,那就是在神经网络的输入层和输出层之间,存在着一个隐藏层(“黑箱”),人们无法弄清机器到底是如何通过输入的数据最终形成决策的。自动驾驶场景中亦然,如果无法找到“黑箱”的逻辑,就无法预测系统可能出现的问题,这对于极高安全性需求的自动驾驶系统是不被允许的。日前,英伟达在这个问题上有了一定的突破,他们声称已开启了其自动驾驶深度神经网络的“黑箱”。本文编译自IEEE对此的报道,由于涉及深度学习的技术细节,有不准确之处请专业读者指摘。
深度神经网络,是计算机用来理解世界的方式,也是机器学习的经典算法模型之一。细致地说来,这个模型是一个人工的神经元网络,它接受给定类型的输入数据,然后从中寻找一种规律性的模式,经过多年发展,目前深度神经网络(DDN)已经被应用于语音识别、机器翻译、机器围棋和自动驾驶汽车等各种场景。
*深度神经网络的抽象模型
深度神经网络模型在机器学习中发挥了重要的作用,并往往能产出令人意想不到的结果,不过之前研究人员一直没有解决一个问题,那就是在神经网络的输入层和输出层之间,存在着一个隐藏层(hidden layers),换言之,没有人真正了解计算机在其中是如何工作的。在神经网络模型中,存在着所谓的“黑箱”。
这也解释了谷歌AlphaGo为什么无法解释围棋比赛是如何胜利的,他们唯一能做的,只是看着他们训练的人工智能不断成长,从初级阶段到打败世界围棋大师。
“黑箱”,带来了神经网络算法的不确定性,这将可能造成人类无法预知的故障的发生。 对于下围棋的AlphaGo而言,这个问题似乎无伤大雅。但对于面向人类出行的自动驾驶汽车而言,这个问题就无法被忽视了。
对于一辆自动驾驶汽车,工程师必须在其正式运行前挖掘到算法中的各种漏洞,预知可能发生的问题并解决,最大限度增大系统的安全性冗余。目前来说,有一种方法可以做这样的排查。那就是通过自动驾驶的算法仿真,将特征逐一输入给人工智能系统,通过这种方式,排查哪些因素影响了系统决策。不过,英伟达似乎找到了一种更快捷的方法,这或许能改变深度学习网络的未来应用。
雷锋网新智驾消息,日前,据外媒报道,英伟达宣称其已经找到了开启深度神经网络黑箱的更简单的方法。此前,英伟达汽车业务负责人Danny Shapiro曾在英伟达官方博客中这样表示,“虽然深度学习技术在基于我们不完全了解的架构进行学习,但我们仍然能够通过一些手段来知道系统是如何决策的。”
据雷锋网了解,英伟达的这种方法是基于深度神经网络对不同数据处理序列输出结果的叠加原理。对于一辆自动驾驶汽车而言,比如其前向摄像头传感器输入了一组图片信息,那么深度神经网络便会对其进行逐层的计算和学习,并输出结果。目前,这种结果可以指示的信息已经包括对自动驾驶汽车的转向操作决策,例如车道线保持等。
那么如何具体执行“黑箱”的开启呢?英伟达是这样做的。首先,拿到一个已经经过解析的高层级输出结果,该结果已经通过摄像头采集的图像数据提炼出了关键特征。然后,将这个结果与低一层级的输出结果进行叠加,取平均值,再与更低的层级叠加,以此类推,直到叠加到最原始的图像信息。
这样一来,得到的最终结果,是一张有部分高亮特征的原始图片,这代表了在深度学习过程中,到底哪些特征是机器所关注的价值点。通过这种方法可以发现一个有趣的现象,那就是机器通过深度神经网络所关注的特征点,正是人类驾驶员认为需要关注的——例如车道线标识、道路边缘、停着的车辆、道路的边线等等。
*叠加后的输出结果图样例
但由于机器关注的特征点不尽相同,为了搞清楚到底哪些决定了机器的最终决策,研究人员将这些高亮的像素特征点主要分为两类:第一类是“显著特征”,即与驾驶决策明确相关的;第二类是“非显著特征”,通常是出现在背景中的信息。通过数字化的研究比对,结果证明,只有显著的特征信息与机器的决策直接相关。
“如果移动‘显著特征’,那么输出的结果会与我们对图像整体的改变呈现线性对应关系,”研究人员如是说,“而移动背景中的像素特征则对输出结果影响小得多,”
的确,工程师无法深入到一个深度神经网络中去寻找“bug”,因为这其中不呈现代码,所以你无法通过代码调试。但深度神经网络却呈现了特征,现在,英伟达通过这种路径,试图将机器提取特征的过程可视化,这或许对人们更好地了解深度学习机制有所助力。
雷峰网原创文章,未经授权禁止转载。详情见转载须知。