0
雷锋网 AI 科技评论按,2018 年已到尾声,今年 AI 领域也取得了很多精彩的突破。人们对 AI 的大肆宣扬和恐慌逐渐冷却,更多地关注到具体的问题中。和往年不一样的是,今年深度学习在很多非计算机视觉领域也取得了突破,尤其是在 NLP 领域。同时,今年在框架上的竞争大大升温,Facebook 发布的 Pytorch 1.0 势头强劲,直逼 Google 的 Tensor Flow,微软也发布了 TextWorld 。按照惯例,Curai 的联合创始人兼 CTO Xavier Amatriain 发布了一篇年度总结,雷锋网 AI 科技评论编译整理如下:
对我来说,在每年的这个时候总结 ML 的进展已经成为一种传统(例如,我去年就在 Quora 上回答过这个问题)。一如既往,这个总结必然会偏向于我自己感兴趣的领域。
如果要我把 2018 年机器学习进展的主要亮点总结成几个标题,那就是:
对 AI 的大肆宣扬和恐慌逐渐冷却;
更多地关注具体问题,如公平性、可解释性或因果性;
深度学习的研究将继续,并且在实践中不仅仅可以用来对图像分类(特别是对 NLP 也非常有用);
AI 框架方面的竞争正在升温,如果你不想默默无闻,你最好发布一些自己的框架。
让我们来看看具体是怎么样的。
如果说 2017 年对人工智能的大肆宣扬和恐慌都达到了极点,那么 2018 年似乎就是我们开始冷静下来的一年。虽然有些人一直在散布他们对于人工智能的恐惧情绪,但与此同时,媒体和其他人似乎已经同意这样的观点,即虽然自动驾驶和类似的技术正在向我们走来,但它们不会在明天发生。尽管如此,仍然有声音认为我们应该规范人工智能,而不是集中于控制其结果。
不过,很高兴地看到,今年的人们关注的重点似乎已经转移到了可以处理的更具体的问题上。例如,关于公平性的讨论很多,而且关于这个话题的会议不止 1 次(例如 FATML 和 ACM FAT),甚至还有一些在线课程也是关于这个话题的,比如 Google 教人们认识机器学习中的公平性的课程。
顺着这条思路,今年已经深入讨论的其他问题有可解释性、解释性和因果性。因果关系似乎回到了聚光灯下,这源于 Judea Pearl 的《The Book of Why》的出版。作者不仅决定写他的第一本「普通人能够读懂」的书,而且他还利用 Twitter 来推广关于因果关系的讨论。事实上,甚至大众媒体都认为这是对现有 AI 方法的「挑战」(例如,你可以看看《机器学习的先驱如何成为最尖锐的批评者之一》这篇文章。实际上,甚至 ACM Recsys 大会上的最佳论文奖也授予了一篇相关论文,该论文讨论了如何嵌入因果关系的问题(参见《Causal Embeddings for Recommendations》)。尽管如此,许多作家认为因果关系在某种程度上只是一种理论,我们应该关注更具体的问题。
Judea Pearl 的书
作为最通用的 AI 范例,深度学习仍然存在很多问题,很显然,深度学习不会止步于当前,就它所能提供的东西而言,它还远远没有达到高峰。更具体地说,今年深度学习方法在从语言到医疗保健等不同于计算机视觉的领域取得了前所未有的成功。
事实上,今年深度学习最有趣的进展可能出现在 NLP 领域。如果要我选出今年最令人印象深刻的 AI 应用程序,它们都将是 NLP 应用程序(并且都来自于 Google)。第一个是 Google 发布的超级有用的 smart compose,第二个是他们的 Duplex 对话系统。
使用语言模型的想法加速了这些进步,这种想法在今年 Fast.ai 的 UMLFit 课程里面普及。随后我们看到了其他改进的方法,比如 Allen 的 ELMO,Open AI's transformers,或最近击败了很多 SOTA 的 Google 的 BERT。这些模型被描述为「Imagenet moment for NLP」,因为它们提供了随时可用的预训练好的通用的模型,这些模型还可以针对特定任务进行微调。除了语言模型之外,还有许多其他有趣的进步,比如 Facebook 的多语言嵌入。值得注意的是,我们还看到这些和其他方法被集成到更通用的 NLP 框架(比如 AllenNLP 或 Zalando) 的 FLAIR 中的速度非常快。
说到框架,今年的「人工智能框架之战」已经升温。令人惊讶的是,Pytorch 1.0 发布之初,它就似乎正在赶上 TensorFlow。虽然在生产中 PyTorch 的使用情况仍然不太理想,但它在可用性、文档和教育方面的进展速度似乎比 TensorFlow 要快。有趣的是,选择 Pytorch 作为实现 Fast.ai 库的框架可能起到了很大的作用。也就是说,Google 意识到了这一切,并且在框架中把 Keras 作为高级模块。最终,我们都能够接触到这些伟大的资源,并从中受益。
pytorch 与 tensorflow 搜索趋势
有趣的是,另一个在框架方面看到许多有趣的进展的领域是增强学习。虽然我不认为 RL 的研究进展与前几年一样令人印象深刻(只有最近 DeepMind 的 Impala 浮现在脑海中),但是令人惊讶的是,在一年之内,我们看到了所有主要的 AI 玩家都发布了 RL 框架。Google 发布了用于研究的 Dopamine 框架,而 Deepmind(隶属于 Google)发布了有一定竞争力的 TRFL 框架。Facebook 不甘落后,发布了 Horizon,微软也发布了 TextWorld,而 TextWorld 在基于文本的训练上更加专业。希望所有这些开源框架在能够让我们在 2019 年看到 RL 的进步。
我很高兴看到最近 Google 在 Tensor Flow 上发布了 TFRank。Ranking 是一个非常重要的 ML 应用程序,它可能应该得到更多的重视。
在数据改善领域,也有非常有趣的进展。例如,今年 Google 发布了 auto-augment,这是一种深度增强学习方法,用于自动增强训练数据。一个更极端的想法是用合成数据训练 DL 模型。这种想法已经被在实践中尝试了一段时间,并且被许多人视为 AI 未来的关键所在。NVidia 在他们的论文《Training Deep Learning with Synthetic Data》中提出了新颖的想法。在我们「Learning from the Experts」这篇文章中,我们还展示了如何使用专家系统生成合成数据,这些合成数据即使在与真实数据结合之后也能用于训练 DL 系统。
至于人工智能领域的更多基本突破,可能由于我个人偏好的原因,并没有看到太多。我不完全同意 Hinton 的说法,他认为这个领域缺乏创新性是由于这个领域有「几个老家伙和一大堆年轻人」,尽管科学界有一种趋势,那就是在研究者会在晚年取得突破性进展。在我看来,当前缺乏突破的主要原因是,现有方法和它们的变体仍然有许多有趣的实际应用,因此很难冒险采用可能并不实用的方法。更重要的是,这个领域的大部分研究都是由大公司赞助的。有一篇有趣的论文《An Empirical Evaluation of Generic Convolutional and Recurrent Networks for Sequence Modeling》,虽然它高度依赖过去的经验,并且使用了已知的方法,但是它打开了发现新方法的大门,因为它证明了通常被认为是最优的方法实际上并不是最优的。显然,我不同意 Bored Yann LeCun 的观点,他认为卷积网络是最终的「主算法」,而 RNN 不是。即便是在序列建模领域,研究空间也很大!另一篇值得研究的论文是最近 NeurIPS 最佳论文「Neural Ordinary Differential Equations」,它挑战了 DL 中的一些基本问题,包括层本身的概念。
雷锋网
雷峰网版权文章,未经授权禁止转载。详情见转载须知。