0
本文为 AI 研习社编译的技术博客,原标题 :
AI predictions for 2019 from Yann LeCun, Hilary Mason, Andrew Ng, and Rumman Chowdhury
作者 | KHARI JOHNSON
翻译 | 邓普斯•杰弗、dominik、哈帝•霍布森
校对 | 邓普斯•杰弗 审核| Pita 整理 | 菠萝妹
原文链接:
https://venturebeat.com/2019/01/02/ai-predictions-for-2019-from-yann-lecun-hilary-mason-andrew-ng-and-rumman-chowdhury/
从左到右:Cloudera ML的总经理Hilary Mason,埃森哲全球AI负责人Rumman Chowdhury,Facebook AI研究总监Yann LeCun和Google Brain联合创始人Andrew Ng
人工智能被认为是一种拯救世界、终结世界的技术。
为了消除噪音和炒作,VentureBeat与杰出人士交谈,他们通过多年与地球上一些最大的科技和工业公司合作,了解了正确的人工智能方式。
以下是Google Brain联合创始人Andrew Ng,Cloudera ML的总经理、Fast Forward Labs的创始人Hilary Mason,Facebook AI Research的创始人Yann LeCun以及埃森哲负责任的AI全球负责人Rumman Chowdhury博士的见解。 我们希望了解他们认为2018年的关键里程碑是什么,以及他们认为2019年将会发生什么。
在回顾这一年以及对未来的预测中,一些人说他们被鼓励少听一些终结者AI末日的场景,因为更多的人知道AI能做什么和不能做什么。但这些专家也强调,在推进人工智能的同时,该领域的计算机和数据科学家仍然需要采取负责任的道德规范。
Rumman Chowdhury博士是埃森哲应用智能部门的常务董事,也是其负责任人工智能计划的全球负责人,并于2017年入选BBC百大女性名单。去年,我有幸在波士顿和她一起分享Affectiva会议的舞台,一起讨论人工智能的信任问题。 她经常就这个话题向世界各地的观众发表讲话。
为了节省时间,她通过电子邮件回答了有关2019年人工智能预测的问题。 本文中其他人的所有回复都在电话采访中分享。
Chowdhury表示,她很高兴看到2018年公众对AI的能力和局限性有了更多的了解,并且发现人们对AI带来的威胁的讨论也更均衡——不再局限于《终结者》中那样担心智能机器会统治全球的恐惧。“随之而来的是,人们对隐私和安全的意识和问题日益增强,以及AI在塑造我们和未来几代人可能发挥的作用。”
然而,Chowdhury认为公众对AI的认识不是最重要的。在未来的一年里,她希望看到更多的人利用教育资源来理解AI系统,并能够用自己的智慧来质疑AI所做的决策。
AI生态系统中的技术公司和人们开始考虑其工作的伦理影响的速度,这让她感到惊喜。 但她希望AI社区更进一步,能够“从口号走向实际行动”。
她提出:“在AI与伦理领域——除了电车难题以外——我希望看到大家能深入挖掘AI将会产生的其他难题,那些没有明确答案的问题。AI与物联网相关监控合适的平衡点在哪里?怎样才能保证安全并且不导致恶化现有种族歧视的惩罚性监控状态?我们应该如何重新分配从先进技术中获得的收益,以便不会进一步扩大已有和还没有的人之间的差距? 什么程度的接触才能让孩子成为“AI原生”,而不是被操纵或同质化? 如何才能利用AI实现教育的规模化和自动化,同时又能让创造力和独立思考蓬勃发展?”
未来1年,Chowdhury预计会看到政府对全球技术界有更多的审查和监管。
她说:“AI以及全球科技巨头所掌握的权力,引发了诸如该如何监管该行业和技术的诸多问题。2019年,我们将不得不开始寻找这些问题的答案——当一项技术是一种具有特定背景结果的多用途工具时,你将如何对他进行监管?如何建立监管体制才能 不妨碍创新或偏袒大公司(谁能承担合规性成本)而不是小初创企业?我们应该监管到什么层面?国际性,国家性还是本地性?”
她还预计AI在地缘政治事务中的角色还将继续演进。
她说:“这不仅仅是一项技术,更是经济和社会的塑造者。我们在这种技术中反思,放大并执行我们的价值观,我们的行业需要少一点天真。”为此,他认为大家需要超越那种对AI行业共同的看法,即如果我们不做的话,中国就会做,好像创造才是威力所在。
她说:“我希望监管者、技术专业和研究人员意识到,我们的AI之争不仅仅是计算机能力和技术智慧的较量,就像冷战不仅仅是核能力的较量一样。我们有责任以一种更公正、更公平的方式去重新创造世界,现在我们有难得的机会这样做。但是这种机会转瞬即逝,希望我们不要错失。”
在消费者层面上,她相信2019年会AI将在家庭中得到更多应用。许多人已经变得更加习惯于使用像Googol Home和Amazon Echo这样的智能音箱,以及很多智能设备。在这方面,她很好奇,在今年的CES(Consumer Electronics Show)大展会上会不会有什么特别有无的东西脱颖而出,这将进一步将人工智能融入人们的日常生活当中。
她说:“我想我们都在等待一个机器人管家”。
当我听说Andrew Ng拿白板开会或者讲网课时,我总是忍不住发笑。也许这是因为一位既有激情又容易相处的人很容易让人开怀发笑。
Ng是斯坦福大学的计算机科学副教授,他的名字在人工智能领域广为人知,原因有很多。
他是Google Brain的联合创始人,该公司旨在将AI推广到Google的许多产品中。他也是Landing AI的创始人,该公司帮助企业将AI融入到运营中。
他还在YouTube和Coursera(这家公司也是他创立的)上教授了一些最受欢迎的机器学习课程,并且成立了了deeplearning.ai。并写了《Deep Learning Yearning》一书。
在2017年,他辞去百度的首席AI科学家职务,在任职的三年多时间里帮助百度变革成一家AI公司。
最后,还是总额1.75亿美元的AI Fund的一员,并且是无人车公司Drive.ai的董事会成员。
Ng本月早些时候与VentureBeat进行了交谈,当时他发布了《AITransformation Play book》,这是一本有关解锁AI对公司积极影响的短读物。
他期望看到2019年会取得进展或者预期会发生变化的一个主要领域是AI被用于科技或软件公司以外的地方。AI最大的为开发机遇不在于软件行业,他引用麦肯锡的一份报告来说,到2030年,AI将会产生13万亿美元的GDP。
“我认为,明年(2019年)在软件行业以外的AI应用领域将会有很多故事可讲。作为一个行业,我们在帮助Google和百度以及Facebook和微软等公司做得不错——当然这些和我已经没有关系——但就连Square和Airbnb、Pinterest等公司也开始利用一些AI能力。我认为下一波大规模的价值创造将会是制造厂或者农机设备公司、医疗保健公司开发数十种AI解决方案来帮助自身企业的时候。”
就像Chowdhury一样,Ng对2018年公众对AI能做什么不能做什么的理解程度也感到吃惊,并且对大家的对话不再仅仅围绕着机器人杀人场景或者一般AI的恐惧展开而感到欣慰。
Ng说,他刻意回答了我一些其他人未必会提出的问题。
他说:“我试图有意地举出一些我认为对实际应用非常重要的领域。我认为AI的实际应用时存在障碍的,并且我认为在在写问题方面若干领域有望取得进展。”
Ng兴奋地指出,在未来一年里预计会看到AI/ML领域会取得有助于整个领域发展的进展。一种是AI可以使用更少的数据得到更精确的结论,也就是所谓的“小样本学习”。
Ng说:“我认为深度学习的第一波进展主要是有一些用大量数据训练非常大型神经网络的大公司,对吧?所以如果你想开发一个语音识别系统的话,你需要用十万个小时的数据对它进行训练。想要训练机器翻译系统?得用到无数平行语料库语句来训练它,这会产生很多突破性的结果。我越来越多地在小数据上看到结果,当你只有1000张图片,也想尝试在这些数据上得到结果。”
计算机视觉的另一个进展被称为“泛化”。计算机视觉系统用斯坦福大学的高端X光机器扫描出来的原始图像来训练时可能会非常好用。该领域的许多先进公司和研究人员已经建立起比人类放射线医师更优秀的系统,但是它们灵活性略差。
他说:“不过如果你把训练好的模型应用于来自低端X光及其或者另一家医院的X射线时,一旦图像有点模糊或者X光技师让病人稍微偏右一点点,结果表明人类的放射科医生比今天的学习算法能更好的概括这种新背景。因此,我认为研究如何改进学习算法在新领域的泛化能力将会很有趣。”
Yann Lecun是纽约大学的教授,Facebook首席人工智能科学家,Facebook人工智能研究院(Fair)的创始总监,该公司创建了Pytorch1.0和Caffe2,以及许多人工智能系统,如文本翻译人工智能工具Facebook每天使用数十亿次或高级强化学习系统。
Lecun认为,那些采样FAIP开源的研究和工具,帮助推动其他大型科技公司也这样做,他认为这推动了人工智能领域的整体发展。Lecun上个月在NeurIPS大会和Fair五周年纪念日前与VentureBeat进行了交谈,他说Fair是一个对“机器学习的技术、数学底线”感兴趣,使它们一起高效运转。
他说:“当更多的人交流这项研究时,整个领域的发展速度会更快,这实际上是一个相当大的影响。”“你今天在人工智能中看到的进步速度很大程度上是因为有越来越多的人比过去更快、更高效地交流,并且做了更多开放的研究。”
在伦理方面,Lecun很高兴看到在简单地考虑工作的伦理影响和有偏见的决策的危险方面取得了进展。
“这个被视为人们应该关注的一个问题的事实现在已经得到了很好的证实。这已经不是两三年前的情况,”他说。
Lecun说,他不相信人工智能的伦理和偏见已经成为一个需要立即采取行动的重大问题,但他相信人们应该做好准备。
他说:“我认为还没有……巨大的生死问题需要紧急解决,但它们会到来,我们需要……理解这些问题,并在这些问题发生之前防止它们发生。”
和NG一样,Lecun希望看到更多的人工智能系统具有灵活性,能够产生强大的人工智能系统,这些系统不需要原始的输入数据或精确的输出条件。
Lecun说,研究人员已经可以通过深入学习很好地管理感知,但缺少的一点是对完整人工智能系统的整体架构的理解。
他说,教学机器要通过观察世界来学习,就需要自我监督学习,或基于模型的强化学习。
“不同的人给它起了不同的名字,但从本质上讲,人类的婴儿和动物是通过观察和找出大量有关它的背景信息来学习这个世界是如何运作的,我们还不知道如何用机器做到这一点,但这是一个巨大的挑战。”
“这一奖项实质上是在人工智能和机器方面取得了真正的进展,使其具有一些常识和虚拟助理,这些助理不会让人沮丧,可以与之交谈,并有更广泛的主题和讨论范围。”
对于Facebook内部有帮助的应用程序,Lecun说,在自我监督学习方面取得重大进展将非常重要,而人工智能则需要较少的数据才能返回准确的结果。
“在解决这个问题的过程中,我们希望找到减少任何特定任务所需的数据量的方法,如机器翻译、图像识别或类似的事情,我们已经在这个方向上取得了进展;通过对翻译和图像识别进行弱监督或自我监督,已经对Facebook所使用的服务产生了一定的影响。所以,这些事情实际上不仅是长期的,而且也有非常短期的影响,”他说。
在未来,Lecun希望看到在人工智能方面取得的进展,能够在事件之间建立因果关系。这不仅是通过观察来学习的能力,而且是通过实践来理解的能力,例如,如果人们在使用雨伞,那么很可能是在下雨。
他说:“这将非常重要,因为如果你想让一台机器通过观察来学习世界模型,它必须能够知道它能影响到什么,从而改变世界的状态,还有一些事情是你做不到的。”“你知道,如果你在一个房间里,前面有一张桌子,上面有一个像水瓶一样的物体,你知道你可以推动水瓶,让它移动,但是你不能移动桌子,因为它又大又重,--------像这样的事情与因果关系有关。”
在Cloudera于2017年收购Fast Forward Labs之后,Hilary Mason成为了Cloudera的机器学习总经理。 快速实验室虽然吸收了Cloudera,但仍然在运作,生成应用机器学习报告,并帮助客户到未来六个月到两年的发展规划。
人工智能在2018年让梅森感到惊讶的一个进步与多任务学习有关,它可以训练单个神经网络在推断例如图像中看到的物体时应用多种标签。
Fast Forward Labs也一直在为客户提供有关AI系统伦理影响的建议。 梅森认为有必要建立某种道德框架。
“这是自从我们创建Fast Forward以来的事情 ,所以,五年前 ,我们一直在撰写关于道德规范的报告,但是今年 [ 2018 ] 人们已经真正开始接受并关注,我想明年我们 “我会开始看到公司和那些不关注这个问题的人们在这个领域的后果或问责制。”梅森说。“我没有说清楚的是,我希望数据科学和人工智能的实践发展成为默认的期望,技术人员和商业领袖创建AI产品将考虑道德和偏见问题 以及这些产品的开发,而今天并不是每个人都默认的东西。“
她说:“我认为很明显是那些了解整个产品的人,并且理解企业了解什么是有价值的,什么是没有价值的,谁最有能力做出这些决定应该投资什么地方。”
“所以,如果你想要我的预测,我想同样的方式,我们希望所有这些人都能使用电子表格这样的简单建模,我们很快就会期望他们能够最低限度地识别自己的AI产品的机会。“
想要继续查看该篇文章相关链接和参考文献?
长按链接点击打开或点击底部【Yann LeCun等大咖对2019 AI发展趋势预测】:
https://ai.yanxishe.com/page/TextTranslation/1425
AI研习社每日更新精彩内容,观看更多精彩内容:雷锋网雷锋网雷锋网
等你来译:
雷峰网原创文章,未经授权禁止转载。详情见转载须知。