0
近日,谷歌与马克斯·普朗克神经生物学研究所合作,在《Nature Methods》上发表了一篇重磅论文,使用一种循环神经网络算法对神经元连接组进行自动重构,不仅可以对连接组进行高分辨率的可视化成像,而且准确度提高了一个数量级,为连接组学的研究带来了新的突破。
在神经系统中绘制神经网络的结构——这是一个被称为「连接组学」的研究领域——无疑是计算密集型的。
人类的大脑中有大约860亿个通过100万亿个突触连接起来的神经元,而对一个立方毫米的大脑组织进行成像,就可以生成超过1000TB的数据(10亿张照片)。
据《连接组:造就独一无二的你》这本书中介绍,连接组学主要是通过分析神经元之间的连接和组织方式来达到分析大脑的运行机制这一终极目的的一门学科。连接主义认为大脑的工作机制就蕴含在神经元的连接中。如果两个神经元之间,有一个突触交会点,那么这两个神经元就是“有连接的”。通过突触,一个神经元可以把信息传递给另一个神经元。
雷锋网注:神经元的结构
为了看到连接组,科学家们经历了各种探索。比较常用的是给大脑组织染色,然后用电子显微镜来观察大脑切片,以此获得神经元连接的大量局部具体信息,再聚合在一起构成大脑的整个神经网络信息,但是在具体操作过程中要克服许多困难,耗费大量的人力物力。第二种是通过MRI(核磁共振)的方法对活体大脑进行观测,但是分辨率较低,只有毫米级。
如果我们能将大脑中突触连接的信息和连接组信息进行高分辨率的可视化成像,那么一个人大脑是否受损就可以一目了然,对一些高难度的脑部疾病进行有针对性的治疗将成为可能。
7月16日,在发表于《Nature Methods》杂志上的一篇名为《利用泛洪网络对神经元进行高精度的自动重构》(High-Precision Automated Reconstruction of Neurons with Flood-Filling Networks)的论文中,谷歌和马克斯·普朗克神经生物学研究所(Max Planck Institute of Neurobiology)的科学家们展示了一种循环神经网络算法(常用于手写和语音识别的机器学习算法),专为连接组学分析量身定做。
谷歌的研究人员并不是第一个将机器学习应用于连接组学的人。今年3月,英特尔与麻省理工学院的计算机科学和人工智能实验室合作,开发了“下一代”大脑图像处理系统。但谷歌声称,他们的模型比以往包括英特尔在内的企业发布的深度学习技术在准确性上提高了一个数量级。
雷锋网注:谷歌的算法在鸣禽大脑中追踪一个3D的神经突触
在大型电子显微镜数据中跟踪神经网络是图像分割的常用方法。传统的算法将这一过程划分为至少两个步骤:使用边缘检测器或机器学习分类器找到神经网络之间的边界,然后使用 watershed 或 graph cut 等算法将未被边界分割的图像像素进行分组。
2015年,研究人员开始尝试一种基于递归神经网络的替代方法,将这两步结合起来。该算法在一个特定的像素点上定点,然后使用循环卷积神经网络迭代“填充”一个区域,该神经网络可以预测哪些像素与初始像素相同。
雷锋网注:在2D中分割对象的Flood-Filling网络
自2015年以来,研究人员一直致力于将这种新方法应用于大型连接组数据集,并严格量化其准确性。
为了检验准确性,研究小组设定了“预期运行长度”(ERL)这一指标,在大脑的3D图像中随机抽取神经元并进行跟踪,然后测量算法在出错前跟踪神经元的距离。
雷锋网注:蓝线表示使用ERL测量的结果;红线表示“合并率”,即两个独立的神经元被误认为一个目标进行跟踪的频率
研究小组报告说,在对100万立方微米的斑胸草雀大脑进行脑部扫描,并用 ERL 进行测量后,该模型的表现比之前的算法“要好得多”。
雷锋网注:利用泛洪网络算法自动重构斑胸草雀大脑神经元
“这些自动化产生的结果结合少量的额外人力投入就可以消除剩余误差,马克斯普朗克研究所的研究人员现在可以研究鸣禽连接组,从而获得新的深入了解,如斑胸草雀如何唱歌,如何学习唱歌”,这篇论文的作者Viren Jain 和 Michal Januszewski在一篇博客文章中写道。
除了论文之外,团队还在Github上发布了模型的TensorFlow代码,以及他们用来进行数据集可视化和改进重构结果的WebGL 3D软件。他们计划在未来改进这个系统,以使突触解析过程完全自动化,并“为马克斯·普朗克研究所和其他机构的项目提供帮助”。
via:venturebeat;googleblog;nature
雷峰网原创文章,未经授权禁止转载。详情见转载须知。