最新消息,华人学者、加州大学圣巴巴拉分校(UCSB)助理教授王宇翔发表的题为“Optimal Dynamic Regret in Exp-Concave Online Learning”的研究论文获得了 COLT 2021 的最佳学生论文奖。COLT 2021(Conference on Learning Theory )是机器学习领域的主流学术会议之一。第34 届COLT 2021将于 8 月 15 日至 19 日在科罗拉多州博尔德举行,届时会议将分为两个阶段采取虚拟和混合两种模式进行。本次会议以机器学习理论研究为主题,涉及人工神经网络理论、深度学习、算法的设计与分析、统计和计算复杂度、优化算法以及经验现象的理论解释等研究方向,设置了最佳论文和最佳学生论文两个奖项。王宇翔(Yu-Xiang Wang)是加州大学圣巴巴拉分校(UCSB)计算机科学系助理教授,机器学习联合实验室负责人。在加入 UCSB 之前,曾在加州帕洛阿尔托Amazon AI 实验室担任科学家(2017-2018年)。他博士就读于卡内基梅隆大学计算机科学学院(CMU),于2017年获得机器学习和统计学双学位,期间接受过Stephen Fienberg、Alex Smola、Ryan Tibshirani和Jing Lei等专家的联合指导。本科和研究生在新加坡国立大学主修电气工程专业,于2011和2013获得学士和硕士学位。他的研究兴趣包括机器学习、统计及优化,主要侧重统计理论和方法、差异隐私、大规模机器学习、强化学习和深度学习等方向,已在ICML、NeurIPS、CVPR等顶会发表了多篇相关研究论文。具体而言,其工作重点涉及各种具有挑战性的学习机制(如高维、异构、隐私受限、顺序、并行和分布式)、数据隐私结构(广义稀疏性、子空间的并集、图形或网络结构),资源平衡(模型复杂性、统计能力和隐私预算)以及各种可扩展的优化工具等。 此外,他还对统计学和机器学习的应用感兴趣,例如在清洁能源、医疗保健、住房、金融市场、网络服务等方面的应用。他认为,相关研究的关键挑战在于如何有效地利用现有数据实现智能预测(监督学习),量化不确定性(统计推断),设计实验(主动学习/强化),以及推断长期决策(强化学习)等。个人主页:https://sites.cs.ucsb.edu/~yuxiangw/论文地址:https://arxiv.org/pdf/2104.11824.pdf
本文主要研究了ZekEvic(2003)动态后悔最小化在具有凹形损失的在线学习中的问题。研究发现,只要允许不恰当(improper)的学习,强自适应在线学习者就会获得的动态后悔,其中,Cn代表学习者未知的任意比较器序列的总变化量(又称路径长度)。即使对于已知上限为的 1D 平方损失,实现这一速率也非常重要的。这项证明技术巧妙地利用 KKT 条件强加的原始变量和对偶变量的复杂结构,并且可能具有独立意义。最后将这些结果应用于局部自适应非参数回归的经典统计问题,在不需要任何统计假设或超参数调整的情况下,获得了更强大、更灵活的算法。
讲座预约丨权威专家再谈AlphaFold 2:AI是否会带来结构生物学的“大革命”?为了更加深入、系统地讨论近期AlphaFold的系列成果,8月7日(本周六 9:30),雷锋网将举办主题为《权威专家再谈AlphaFold2:AI是否会带来结构生物学的“大革命》的线上圆桌论坛。本次主题论坛由图像计算与数字医学国际研讨会(ISICDM)主办,雷锋网、医健AI掘金志协办。想要提问的读者可扫描下方海报二维码,进入专家社群,我们会将您的问题收集、汇总后,反馈给参会嘉宾,并在讨论环节一一进行解答。雷锋网雷锋网雷锋网
雷峰网特约稿件,未经授权禁止转载。详情见转载须知。