1
本文作者: 黄善清 | 2019-06-24 16:12 | 专题:CCF-GAIR 2019 |
雷锋网 AI 科技评论按:「谁要想主导世界经济,谁必须在类脑计算这个领域领先」。
我们都知道,当前计算机技术主要面临着两个重要瓶颈:
「冯诺依曼」架构导致的能效低下——运算单元和存储单元分离,大部分能量和时间都消耗在数据的读取和存储过程中;并且数据处理是基于串行结构,即同一时刻只能执行一个任务。
摩尔定律失效
而借鉴人脑发展的类脑计算技术,被认为是应对以上挑战的重要替代方案——在进行学习和认知等复杂计算时,人脑的功耗只有 20 瓦;而目前最先进的计算机模拟人脑功能,功耗也将高达 800 万瓦以上,速度还比人脑慢 1000 倍以上。这是因为现代计算机一般使用固定的数字化的程序模型,同步、串行、集中、快速、具有通用性地处理问题,数据存储与计算过程在不同地址空间完成。而与之形成鲜明对比的是,人的大脑会重复利用神经元,并突触、异步、并行、分布式、缓慢、不具通用性地处理问题,是可重构的、专门的、容错的生物基质,并且人脑记忆数据与进行计算的边界是模糊的。
换句话说,类脑计算(Brain-like computing)系统是一种基于神经形态工程 、借鉴人脑信息处理方式 、 打破「冯诺依曼」架构束缚、适于实时处理非结构化信息、具有学习能力的超低功耗新型计算系统。
与经典人工智能符号主义、连接主义、行为主义以及机器学习的统计主义这些技术路线不同,类脑计算采取的是仿真主义:
结构层次模仿脑(非冯·诺依曼体系结构)
器件层次逼近脑(神经形态器件替代晶体管)
智能层次超越脑(主要靠自主学习训练而不是人工编程)
因此,类脑计算试图建立一个类似的架构,使得计算机也能保持类脑的复杂性,达到可处理小数据 & 小标注问题、适用于弱监督和无监督问题、关联分析能力强、鲁棒性强、计算资源消耗较少、具备认知推理能力、时序相关性好、可能解决通用场景问题的目的,最终实现强人工智能和通用智能。
「谁要想主导世界经济,谁必须在类脑计算这个领域领先」
类脑计算,被视为未来信息技术最具有发展前景的重要领域之一,正如欧盟人脑旗舰研究计划所指出的:
「在未来 20 到 30 年内,谁要想主导世界经济,谁必须在类脑计算这个领域领先」
近 20 年来,类脑计算等脑科学成为发展最快的学科之一,美国、日本、德国、英国、瑞士等发达国家率先制定了发展计划:
美国《BRAIN 计划》
2013 年 4 月 2 日,美国总统奥巴马宣布启动名为「通过推动创新型神经技术开展大脑研究(Brain Research through Advancing Innovative Neurotechnologies)」的科研计划,首年投入 1 亿美元资助该计划向前推进。
该项目最重要的一个任务,是绘制出人脑活动图谱(Brain Activity Map,BAM)。虽然人脑看上去平平无奇,实际上里头却有近 1000 亿个神经元,形成 100 万亿个突触。神经科学家尝试捕捉和测量的「动态神经突触和活动」需要庞大的计算能力和强大的技术支持,也就意味着需要巨改投资。为此,美国国防部高级研究项目局(DARPA)投入约 5 000 万美元,重点探索大脑的动力学方面(dynamic function of the brains)的功能,并基于这些发现开创新应用;美国国立卫生研究院(NIH)投入约 4 000 万美元,重点开发研究大脑的新技术;而美国国家科学基金会(NSF)投入约 2000 万美元,支持跨学科研究大脑,包括物理学、生物学、社会学和行为科学。
官网:https://braininitiative.nih.gov/
欧盟《人脑计划》
2013 年欧盟推出了由 15 个欧洲国家参与、预期 10 年的「人脑计划」,目标是开发信息和通信技术平台,致力于神经信息学、大脑模拟、高性能计算、医学信息学、神经形态的计算和神经机器人研究。该项目侧重于通过超级计算机技术来模拟脑功能,以实现人工智能。
该计划是迄今为止欧洲资助的最大研究项目之一,也是该领域最全面的研究项目之一。HBP 项目分为三个重要阶段:
快速启动阶段(2013 年 10 月-2016 年 3 月)
专注于信息与通信技术平台初始版本的建立,并为该平台收集筛选过的战略数据。
计划的运作阶段(2016 年 4 月-2018 年 8 月)
进一步加强数据的收集以及平台新功能的补充,并积极展示该 ICT 平台在对人脑的基础研究、医疗应用和未来计算技术方面所带来的成果。
稳定阶段(最后三年)
继续上一阶段的工作,并将人脑计划发展成为脑科学研究领域的永久性资产。
官网:https://www.humanbrainproject.eu/en/
中国脑计划
中国脑计划制定为 15 年计划(2016-2030 年),前五年与中国「十三五」国民经济和社会发展规划纲要相吻合,将面向世界智能科技前沿和「健康中国 2030」的战略需要,发展我国脑科学、类脑技术,从认识脑、保护脑和模拟脑三个方向展开研究,逐步形成以脑认知功能的解析和技术平台为一体,以认知障碍相关重大脑疾病诊治和类脑计算与脑机智能技术为两翼的「一体两翼」研究布局。
中国脑计划的「一体」是指脑认知功能的神经基础,包含模式动物全脑图谱绘制、认知功能神经环路研究和脑研究创新技术平台三个方面。而「两翼」,一是指如何诊断和治疗重要脑疾病,包括幼年期自闭症和智障、中年期抑郁症和成瘾、老年期的退行性脑疾病;二是指发展人工智能与脑科学结合的脑机智能技术,主要包括脑机接口和脑机融合新模型、新方法,新一代人工网络计算模型和类脑计算系统。
下一个突破点?
目前,国际上类脑计算研究已经取得显著进展,技术探索阶段已经过去,技术预研已经开始,一些关键技术获得突破,相关的技术原型和系统原型已开发成功。2014 年,美国《科学》周刊已将「IBM 推出模仿人类大脑的芯片」列为年度十大科学突破之一。类脑计算必将成为未来非传统高性能计算的重要发展方向。
总的来说,类脑智能技术体系分四层:基础理论层、硬件层、软件层、产品层。基础理论层基于脑认知与神经计算,主要从生物医学角度研究大脑可塑性机制、脑功能结构、脑图谱等大脑信息处理机制研究;硬件层主要是实现类脑功能的神经形态芯片,也就是非冯诺依曼架构的类脑芯片,如脉冲神经网络芯片、忆阻器、忆容器、忆感器等;软件层包含核心算法和通用技术,核心算法主要是弱监督学习和无监督学习机器学习机制,如脉冲神经网络、增强学习、对抗神经网络等;通用技术主要是包含视觉感知、听觉感知、多模态融合感知、自然语言理解、推理决策等;产品层主要包含交互产品和整机产品,交互产品包含脑机接口、脑控设备、神经接口、智能假体等,整机产品主要有类脑计算机、类脑机器人等。
对于类脑计算研究的未来走向,清华大学类脑计算研究中心主任施路平曾如此总结道:
类脑计算的研究基于三个层次。在核心芯片层面,要建立类脑信息处理的普适平台;在操作系统层面,要引领类脑智能技术的发展方向;在应用软件层面,要防止信息产业空心化。
施路平
对于类脑计算与当下最热门的深度学习的区别,北京大学信息科学技术学院教授吴思也做了相应补充:
对比静态的深度学习,神经信息处理的一大特点是动态地处理动态的信息,神经信息处理的动态法则包括动态编码、时间延迟补偿、运动预测跟踪、时空模式识别、时间节律编码、反馈调节等,我们可以借此发展出一些类脑应用算法。
吴思
中国科学院自动化研究所余山研究员也从算法的角度给出了自己的见解:
生物脑的学习过程并非从零开始,而是从学习之初,就拥有并运用了重要的先验知识,这包含了物种在进化过程中学到的(生物学称之为系统发生),以及个体在生活过程中学到的有关真实世界的关键知识。读取这些知识,以及借鉴如何将这些知识作为先验信息注入神经网络结构从而实现小样本学习,可能会是神经科学以及类脑算法设计中一个富于成果的领域。
余山
从硬件的角度而言,由中国科学院半导体研究所超晶格国家重点实验室高速图像传感及信息处理课题组副研究员刘力源等研制出面向 860GHz CMOS 太赫兹图像传感器的像素器件,大大提升了我国在太赫兹成像领域的国际竞争力——太赫兹波成像技术作为一种新型无损成像技术正在兴起,在生物医学、医疗诊断、安全检测、危险物品检查、隐形武器探测、材料表征和探伤等科学研究以及日用领域具有非常广阔的应用前景,已成为各国争相研究的热点技术。
刘力源
而对于类脑计算的前景,中国科学院计算所副研究员赵地表示充满了信心:
神经形态芯片计算能力显著提高,能耗和体积却要小得多,更为智能的小型机器或将引领计算机微型化和人工智能的下一阶段。
赵地
而上述提到的五位类脑计算专家,将会出现在 7 月 13 日举行的 CCF-GAIR 2019 类脑计算专场上,与大家共同探讨中国类脑计算的未来。中国要想夺得类脑计算的「入场券」,需要更多的有识之士来为这个领域「添砖加瓦」,这是 CCF-GAIR 2019 设立类脑计算专场的初衷。
届时,在主持人中国科学院计算所副研究员赵地的引领下,清华大学类脑计算研究中心主任施路平、北京大学信息科学技术学院教授吴思、中国科学院自动化研究所研究员余山、中国科学院半导体研究所副研究员刘力源将带来五场精彩纷呈的主题报告,带领大家走进类脑计算的最前沿。
专场议程:
嘉宾阵容:
全球人工智能与机器人峰会(CCF-GAIR) 由中国计算机学会(CCF)主办,雷锋网、香港中文大学(深圳)承办,得到了深圳市政府的大力指导,是国内人工智能和机器人学术界、工业界及投资界三大领域的顶级交流博览盛会,旨在打造国内人工智能领域极具实力的跨界交流合作平台。更多关于大会 & 购票的详情,欢迎登陆 https://gair.leiphone.com/gair/gair2019 进行查看。
雷锋网 AI 科技评论
雷峰网原创文章,未经授权禁止转载。详情见转载须知。