您正在使用IE低版浏览器,为了您的雷峰网账号安全和更好的产品体验,强烈建议使用更快更安全的浏览器
此为临时链接,仅用于文章预览,将在时失效
人工智能 正文
发私信给章敏
发送

0

PRICAI 2016国际人工智能大会论文解析 | 探索强化学习中多个动作之间的关系

本文作者: 章敏 2016-08-24 15:33
导语:PRICAI 2016是环太平洋国际人工智能会议 ,每两年举行一次,大会专注于人工智能的理论,技术及其在社会领域的应用,和其对于太平洋沿岸国家经济的重要性

导读:PRICAI 2016是环太平洋国际人工智能会议 ,每两年举行一次,大会专注于人工智能的理论,技术及其在社会领域的应用,和其对于太平洋沿岸国家经济的重要性。

探索强化学习中多个动作之间的关系(Exploring Multi-action Relationship in Reinforcement Learning)

 PRICAI 2016国际人工智能大会论文解析 | 探索强化学习中多个动作之间的关系

摘要:很多现实生活中的强化学习问题,要求代理同时控制多个行动。在这种情况下进行学习,以前,每一个动作通常和其他动作分开处理。然而,在应用中多个行动之间几乎很少独立进行,而且利用行动之间潜在的关系,可能有助于加快学习。本文探讨了强化学习中多个行动之间的关系。我们提出执行一个正则项来捕获多行动之间的关系。我们将正则项具体化到最小二乘策略迭代和时域差分法中,这有效的解决了凸学习目标。所提出的方法已在几个领域中被证实有效。实验结果显示具体化多动作之间关系能有效提高学习性能。

作者简介

俞杨(Yang Yu)

邮箱:yuy@lamda.nju.edu.cn

职位:南京大学计算机科学与技术系副教授/LAMDA Group

研究方向:人工智能,进化的机器学习,强化学习

相关学术论文:

·High-dimensional derivative-free optimization

·Pareto optimization

 汪涵(Han Wang)

邮箱:wangh@lamda.nju.edu.cn

职位:南京大学计算机科学与技术系理科硕士/LAMDA Group

研究方面:机器学习,数据挖掘,强化学习

via:PRICAI 2016

 PS : 本文由雷锋网独家编译,未经许可拒绝转载!

 论文原文下载


雷峰网原创文章,未经授权禁止转载。详情见转载须知

PRICAI 2016国际人工智能大会论文解析 | 探索强化学习中多个动作之间的关系

分享:
相关文章
当月热门文章
最新文章
请填写申请人资料
姓名
电话
邮箱
微信号
作品链接
个人简介
为了您的账户安全,请验证邮箱
您的邮箱还未验证,完成可获20积分哟!
请验证您的邮箱
立即验证
完善账号信息
您的账号已经绑定,现在您可以设置密码以方便用邮箱登录
立即设置 以后再说