您正在使用IE低版浏览器,为了您的雷峰网账号安全和更好的产品体验,强烈建议使用更快更安全的浏览器
此为临时链接,仅用于文章预览,将在时失效
人工智能 正文
发私信给AI研习社-译站
发送

1

2分钟论文 | 用 谷歌「AI可解释性」 看懂机器学习

本文作者: AI研习社-译站 2018-03-19 16:42
导语:谷歌现在更懂机器,还开源了研究工具

雷锋网按:这里是,雷锋字幕组编译的Two minutes paper专栏,每周带大家用碎片时间阅览前沿技术,了解AI领域的最新研究成果。

原标题 Building Blocks of AI Interpretability - Two Minute Papers #234

翻译 | 陈晓璇    字幕 | 凡江    整理 | 吴璇  逯玉婧

谁再说神经网络是黑盒,甩出这篇文章,给TA翻个白眼。

上周,谷歌Jeff Dean在推特上转发了一句话“还认为神经网络是黑盒吗?要不再想想 :) ”。

还配上了《纽约时报》一篇名为《谷歌研究人正在搞懂机器学习》的文章。

2分钟论文 | 用 谷歌「AI可解释性」 看懂机器学习

点进这篇文章发现,Jeff Dean意指论文《The Building Blocks of Interpretability》(译名:可解释性的基石)在神经网络可视化方面的新进展。

研究由谷歌大脑研究员Chris Olah带队完成,创建了一套神经网络可视化方法。

2分钟论文 | 用 谷歌「AI可解释性」 看懂机器学习

左图:可以被神经网络识别,比如说,告诉我们图片里有没有花瓶或柠檬。

右图:神经网络中间层的可视化呈现,能够检测到图片中的每个点。

看起来,神经网络正在检测,像花瓶的模型以及像柠檬的物体。

论文将独立的神经元、分类归属与可视化结合,从而提供一种理解神经元的方法。

2分钟论文 | 用 谷歌「AI可解释性」 看懂机器学习

我们通过观察“神经元可以被哪些图像激活”,“神经元在找哪些图像“、“神经元判定这个图像属于哪一类“,可以判断出“神经元的最终决策及贡献值“。

这个过程减少了神经元的总数,并且将神经元分解成一些小的语义组,得出有意义的解释方法。在论文中被称作“因式分解“或者“神经元分组”。通过做这项工作,我们可以得到高度描述性的标签,赋予它们直观的含义。

现在我们把一张图片放到拉布拉多组,神经网络开始观察拉布拉多的耳朵、额头、嘴巴还有毛发的组合。过程可以由一个活动地图来展示,通过观察,我们可以轻松看到神经元群组兴奋点。

我们这里仅仅概括了论文的表面含义,论文中还有许多其他的成果和互动的案例供大家赏析。

论文原址 https://distill.pub/2018/building-blocks/


更多文章,关注雷锋网 雷锋网

添加雷锋字幕组微信号(leiphonefansub)为好友

备注「我要加入」,To be an  AI  Volunteer !

2分钟论文 | 用 谷歌「AI可解释性」 看懂机器学习


雷峰网原创文章,未经授权禁止转载。详情见转载须知

2分钟论文 | 用 谷歌「AI可解释性」 看懂机器学习

分享:

知情人士

AI研习社(yanxishe.com)译站频道,传播前沿人工智能知识,让语言不再成为学习知识的门槛。(原雷锋字幕组)
当月热门文章
最新文章
请填写申请人资料
姓名
电话
邮箱
微信号
作品链接
个人简介
为了您的账户安全,请验证邮箱
您的邮箱还未验证,完成可获20积分哟!
请验证您的邮箱
立即验证
完善账号信息
您的账号已经绑定,现在您可以设置密码以方便用邮箱登录
立即设置 以后再说