0
本文作者: AI研习社 | 编辑:李凡江 | 2019-09-03 16:17 | 专题:IJCAI 2019 |
大家好,我就是倪蘋,社区昵称是MLer-1,毕业于纽约大学计算机科学专业,我目前正在利物浦大学从事机器学习算法相关的研究和开发工作,研究领域包括 NLP,CV和分布式计算。
之前一直在关注领域内的各大顶会,后来通过 AI 科技评论的公众号发现了AI 研习社(ai.yanxishe.com),分享、交流的圈子又扩大了数倍。再此感谢研习社提供的交流平台和赞助机会,能在AI研习社的赞助下参加今年在澳门召开的IJCAI 2019大会,这次行程收获满满,不仅拓展了领域内的研究视野,同时也与产业与学术界有了更多的连结。欢迎大家扫码关注我的社区主页——
本次大会的内容及活动非常丰富,其中包括:Workshop,Tutorials,MainConference,Competitions, Demos等部分,只要你想认真学习或交流,每天基本上的行程都可以非常的满。以我在11-13号的行程来看,每天从早到晚密集的Workshop遍布全场,各类主题更是包罗万象,不仅涵盖了理论人工智能(算法及其它技术上的创新),各行业的应用(教育、金融、食品等其它行业)及跨领域交叉创新方面(环境科学、医学、社会学等跨领域学科)的主题,还包括了AI道德伦理,AI和联合国可持续发展等对人类社会如何在“人工智能后时代”长远发展的相关议题。
无论是在Workshop的选题还是Main Conference的分会场设置,总体来看,IJCAI作为人工智能领域首屈一指的年度盛会,已经超越了传统技术性层面的探究,在对如何促进整个人类社会文明的进步有着周全的考虑。这也是IJCAI作为整个人工智能行业旗舰会议,有别于其它更细领域的国际会议的地方。
在不离开探究最为前沿的人工智能学术本质的同时,兼顾产业转化和与外部世界的联系和融合,尽可能地覆盖更多相关领域,对整体社区的良性发展提供了足够的内外部条件支持。因此,这也是大会可以持续成功举办28届,并逐年吸引超过更多人次参与的原因所在。
在本次大会的Workshop部分,不同议题的日程安排较为密集,很多时间如果需要在感兴趣的研究雨露均沾的顾及到,必须随时做好串场的准备。正如我在参会速递中发出的内容,本次会议我更多重点关注在各类机器学习相关算法及资源方面的进展,同时兼顾部分CV和NLP领域的最新尝试。
其中印象较为深刻的研究包括:Vijay等人发表的Vehicle Semantic Understanding forAutomated Driving in Multiple Lane Urban Roads using Deep Vision-based Features,他们利用一种新的语义分割框架来获取车辆时间信息,并用利用这些初步的感知信息,使用基于规则的系统对相邻车辆进行语义理解,并获得了优于基线算法的结果。以及Boley等人在Big Social Media Data Management andAnalysis (BSMDMA)上展示了一个基础的张量是如何通过对张量的slice进行预计算而得到的,并对图的各种重要度量进行统一处理。由此引出计算度量的快速方法,如对给定节点的平均访问次数,以及对单个节点的各种中心性和中间性度量,无论是对于一般的网络,还是在需要避免节点子集的情况下。由此可以解决快速响应网络中主要瓶颈的查询问题。
除此之外,在NLP领域,Natural Language Processing for Social Media(SocialNLP)研讨会中关于EmotionX竞赛任务也是短短几天内的关注点之一。其中发布了许多关于各类预训练模型的情感分析检测方法,以及克服数据集中类别不平衡、数据集噪声处理、模型复杂度优化等问题的处理经验等。例如Yu等人提出了一种基于残差GRU和文本CNN的情绪检测器,用于预测语篇中每句话的情绪,具有结构简单、易于训练等特性。
Yang等人提出了一种基于可转移语言模型和动态最大汇聚的语境情感分类器,该分类器可以预测对话中每个话语的情感,并成功解决了EmotionX共享任务中存在的三个固有问题,即获取虚拟信息、理解非正式文本对话和克服类不平衡问题。而在信息检索及对话领域,Search-Oriented Conversational AI研讨会吸引了学术界和产业界人士的关注。
清华大学的Minlie Huang针对现阶段对话系统中存在的三个基本问题:语义、一致性和互动性进行讨论,并介绍了最近的一些智能对话系统的研究,例如:一个对话系统如何通过情感检测和表达、主动提问和句子功能控制来表现出更强的交互性?对话系统如何通过使用常识性知识来理解和生成语言,从而实现更智能的行为?而来自Google的Xiaoxue Zan则重点介绍与构建此类大规模虚拟助手相关的一些挑战和实际考虑因素,以及Google通过新发布的Schema-guided Dialogue数据集以及解决相关领域问题的一些工作报告。这些都对正在研究或是从事NLP、信息检索等相关领域人员拥有较大帮助。
同样地,在13号主会中关于CV领域的研究部分,Piao等人在DeepLight-field-driven Saliency Detection from a Single View中首次将显着性检测问题转化为两个子问题:单视点光场合成问题和光场驱动显着性检测问题。并提出一个高质量的光场合成网络,以产生可靠的四维光场信息。在此基础上,提出了一种基于光场驱动的显著性检测网络,并在显著性检测的最大光场数据集中实验了多个各种具有挑战性的场景,得到了理想的结果。Mao等人在Resolution-invariant PersonRe-Identification中通过端对端CNN学习联合训练前景聚焦超分辨率(FFSR)模块,和利用分辨率不变特征提取器(RIFE)来学习对分辨率方差具有鲁棒性的人物表示,在CAVIAR和MLR-CUHK03上获得了36.4%和73.3%的准确度(排名第一),分别超过了超过先前的技术2.9%和2.6%。
而关于Tutorial部分,台湾交通大学的Jen-Tzung Chien教授针对Deep Bayesian SequentialLearning进行了详细的原理介绍及其相关延伸知识点、变种及应用进行了讲解。来自北京大学的Juntao Li和Rui Yan博士则对人工智能在文学领域的跨领域应用进行教程演讲,针对文本生成和自动编写进行深入的探讨,总结了现有的研究,并概述了相关的技术实现。重点聚焦在创作和艺术写作的最新进展和趋势,包括故事,诗歌,对联的流派等。
由于篇幅有限,本文摘录部分如上所示,更多精彩请移步社区阅读完整版。
https://ai.yanxishe.com/page/blogDetail/14371?from=leiphone
大家好,我是李雨茗,跟倪蘋是同事,现在也在利物浦大学担任研究员, KFC是我的社区昵称因为爱吃 KFC 就直接起了这个名字。
感谢 AI研习社给我们提供了一个交流和分享的平台,可以让我们通过发帖和泡泡等形式相互交流,共同进步。当然最感谢AI研习社的顶会赞助计划,进入研习社以来我通过分享学习笔记,搬运最新研究进展,发泡泡,邀请好友加入等形式获得了七百多研值,让我得以有机会接触学界大佬,跟进最新的学术动态,并为接下来的发展定下方向和目标,刷研值的过程不仅是为了发表,还是对知识的回顾整理和重新加工,是一个和有共同爱好和共同目标的人们接触和交流的机会,十分有意义。希望越来越多的人可以加入研习社,一起探讨共同向前。
欢迎大家扫码关注我的社区主页:
上周,我有幸参加了由 AI 研习社赞助出行的第 28 届国际人工智能组织联合会议 IJCAI 2019(International Joint Conference class="" _src="https://notecdn.yiban.io/cloud_res_dev/79539/imgs/19-8-23_06:32:40.103_58311.jpeg" style="max-width: 100%; border-style: solid; border-width: 0px; box-shadow: none; visibility: visible !important;">
此次大会邀请了许多业内大佬进行演讲,包括周志华,Kiroaki Kitano 等人。
Workshop 在同一时间段会展开多个主题场次,我根据提前给出的 workshop 流程单,按照自己感兴趣的 present 主题在多个会场之间来回穿梭。具体的文章领悟,心得体会如下文所述:
在 12 日的 Scaling-Up Reinforcement Learning (SURL) Workshop 中,来自奥地利 Know-Center – Graz 的 Adrian Remonda 等人的文章「Formula RL: Deep Reinforcement Learning for Autonomous Racing usingTelemetry Data」令我印象深刻,该文章探讨了强化学习 (RL) 模型在自动赛车竞赛中的应用。与日常情况不同的是,本文环境下赛车的目标是把停车时间降到最低。作者将问题框定为一个具有多维输入的强化学习任务,包括车辆遥测和一个连续的动作空间。找出哪些 RL 方法更好的解决这个问题, 是否获得模型推广到行驶在未知的追踪, 实验部分把深层决定性策略梯度 (DDPG) 比赛在「研究 RL 方法学会驾驶赛车」,「学习如何学习场景模型泛化能力的影响」两个实验中进行验证,学习如何学习场景模型泛化能力的影响。该研究表明,使用 RL 训练的模型不仅能够比基准的开源手工机器人驾驶得更快,而且还可以推广到未知的领域。另外感兴趣的点在于该文章提出了一个全面的研究,将 RL 方法应用于自动驾驶汽车并仅依赖于汽车遥测数据。其通过实验证明了获得的模型优于目前最先进的手工模型。结果还表明,PER1M(优先重放体验,重放缓冲区大小为 1M) 是复杂轨迹中性能最好的算法。最重要的是,结果证明了作者提出的超前曲线方法 (LAC) 提高了模型在自动赛车场景中的性能。作者的成果对使用强化学习的线路优化问题做出了贡献。在结尾处,作者对其团队的 future work 给出以下方向,首先进一步研究如何生成这样一个通用的模型,在不可见的轨道上取得相对较高的性能,并看看针对特定轨道进行进一步的训练将如何影响性能和缩短训练时间。使这些通用模型健壮并更快地学习的一种方法是使用预定义的操作来训练模型。其次计划研究在培训过程中,研究是否可以在不使用任何参考线的情况下培训模型。在这项工作中,期望利用 TORCS 作为一个模拟环境,这足以评估先前提出的假设,并证明新方法的能力。该 futurework 可供感兴趣的同学后续深入研究。
还有一个值得推荐的是在「Natural Language Processing for Social Media」Workshop 上来自 Purdue University 的博士生 Tunazzina Islam 带来的「Ex-Twit: ExplainableTwitter Mining>
结合主题建模和局部可解释模型无关解释 (LIME) 来预测主题和解释模型预测,并在 Twitter 健康相关数据上证明了 Ex-Twit 的有效性。众所周知,Twitter 作为国际知名的社交网络,人们每天都用它来表达对不同话题的看法,比如产品、电影、健康、音乐、政治人物、事件等等。Twitter 数据构成了一个丰富的源,可以用于捕获任何可以想象到的主题的信息。这些数据可以在不同的用例中使用,例如查找与特定关键字相关的趋势、度量品牌人气以及收集关于新产品和服务的反馈。同时,大多数机器学习算法的问题在于,它们被设计成通过训练实例进行训练,而它们的预测对人类来说是模糊的(即黑盒效应)。信任是一个至关重要的问题。可解释 AI (Explainable AI, XAI) 在一定程度上提供了决策的详细解释,这些解释对于保证机器学习算法的公平性和识别训练数据中的潜在偏差具有重要意义。作者将以上两个问题结合在一起,从日常角度出发,提出了一种结合 LDA 和 LIME 的可解释 Twitter 挖掘方法,并成功地证明了 Ex-Twit 在 Twitter 健康相关数据上解释模型预测的有效性。作者在最后提出,在未来希望添加更多的 tweet 来进一步验证该的方法并观察可伸缩性。
由于篇幅有限,本文摘录部分如上所示,更多精彩请移步社区阅读完整版。
https://ai.yanxishe.com/page/blogDetail/14370?from=leiphoneli
雷锋网雷锋网雷锋网
雷峰网原创文章,未经授权禁止转载。详情见转载须知。