0
优化(连续)
会议主席: Le Song
地点: Lyceum
03:40 – On the Statistical Limits of Convex Relaxations(关于凸松弛的统计范围)Zhaoran Wang 、Quanquan Gu , Han普林斯顿大学
03:57 – Faster Convex Optimization: Simulated Annealing with an Efficient Universal Barrier(更快的凸优化: 有效的普遍障碍的模拟退火法)Jacob Abernethy 密歇根大学; Elad Hazan普林斯顿大学
04:14 – A ranking approach to global optimization(全球优化排列方法) Cedric Malherbe ENS Cachan, Emile Contal、Nicolas Vayatis卡桑高等师范学院
04:31 – Epigraph projections for fast general convex programming (快速一般凸规划的题词预测) Po-Wei Wang、Matt Wytock、Zico卡耐基梅隆大学
大会主席: Tong Zhang
地点: Lyceum
05:10 – Low-rank Solutions of Linear Matrix Equations via Procrustes Flow(通过Procrustes Flow的线性矩阵方程解决方法)Stephen Tu、Ross Boczar、Max Simchowitz、mahdi Soltanolkotabi、 Ben Recht 加州大学伯克利分校
05:27 – Quadratic Optimization with Orthogonality Constraints: Explicit Lojasiewicz Exponent and Linear Convergence of Line-Search Methods (正交约束的二次优化:线搜索方法的明确Lojasiewicz指数和线性收敛)Huikang Liu 、Weijie Wu、Anthony Man-Cho 香港中文大学
05:44 – Efficient Algorithms for Large-scale Generalized Eigenvector Computation and Canonical Correlation Analysis(高效的算法对大规模广义特征向量计算和典型相关分析)Rong Ge , Chi Jin加州大学伯克利分校; Sham , Praneeth Netrapalli 、Aaron Sidford微软研究所
06:01 – Matrix Eigen-decomposition via Doubly Stochastic Riemannian Optimization(通过双随机矩阵协黎曼优化的矩阵分解) Zhiqiang Xu Infocomm研究所; Peilin Zhao 、Jianneng Cao Xiaoli Li I2R, ASTAR
会议主席:Roger Grosse
地点:Empire
03:40 – Principal Component Projection Without Principal Component Analysis (没有主元件分析的主元件投影)Roy Frostig 斯坦福大学;Cameron Musco、Christopher Musco Mass 麻省理工学院;Aaron Sidford 微软新英格兰研究所
03:57 – Recovery guarantee of weighted low-rank approximation via alternating minimization (通过交替最小化的加权低秩逼近的恢复保证)Yuanzhi Li、Yingyu Liang、Andrej Risteski 普林斯顿大学
04:14 – Tensor Decomposition via Joint Matrix Schur Decomposition(张量分解通过联合矩阵的舒尔分解)Nicolo Colombo 卢森堡大学;Nikos Vlassis 美国Adobe公司
04:31 – Fast methods for estimating the Numerical rank of large matrices (评估大矩阵数值秩的快速方法)Shashanka Ubaru、Yousef Saad 明尼苏达大学
无监督学习/应用
会议主席:Jeff Bilmes
地点:Soho
03:40 – Markov-modulated Marked Poisson Processes for Check-in Data(用于检查数据的马尔可夫调制标记的泊松过程)Jiangwei Pan、Pankaj Agarwal、 Alan Gelfand 美国杜克大学;Vinayak Rao 美国珀杜大学
03:57 – Hierarchical Compound Poisson Factorization(层次复合泊松分解)Mehmet Basbug 普林斯顿大学;Barbara Engelhardt
04:14 – Dirichlet Process Mixture Model for Correcting Technical Variation in Single-Cell Gene Expression Data (在单细胞的基因表达数据校正技术变化的狄利克雷过程混合模型)Sandhya Prabhakaran、Elham Azizi、Ambrose Carr、Dana Pe’er 哥伦比亚大学
04:31 – Automatic Construction of Nonparametric Relational Regression Models for Multiple Time Series (多时间序列的非参数关系回归模型的自动构建)Yunseong Hwang、Anh Tong、Jaesik Choi 软件技术研究所(UNIST)
学习理论
会议主席:Jon Mcauliffe
地点:Liberty
03:40 – Truthful Univariate Estimators (真实单变量评估)Ioannis Caragiannis 佩特雷大; Ariel Procaccia、Nisarg Shah 卡内基梅隆大学
03:57 – Fast Algorithms for Segmented Regression (分段回归的快速算法)Jayadev Acharya 、Jerry Li 麻省理工学院; Ilias Diakonikolas;Ludwig Schmidt
04:14 – Stochastically Transitive Models for Pairwise Comparisons: Statistical and Computational Issues (成对比较随机传递模型:统计与计算问题)Nihar Shah、Aditya Guntuboyina、 Martin Wainwright 加州大学伯克利分校;Sivaraman Balakrishnan 剑桥管理机构;
04:31 – Provable Algorithms for Inference in Topic Models (在主题模型中推理可证明的算法)Sanjeev Arora、Frederic Koehler、Tengyu Ma 普林斯顿大学;Ankur Moitra
03:57 – Fast Algorithms for Segmented Regression (分段回归的快速算法)Jayadev Acharya 、Jerry Li 麻省理工学院; Ilias Diakonikolas;Ludwig Schmidt
04:14 – Stochastically Transitive Models for Pairwise Comparisons: Statistical and Computational Issues (成对比较随机传递模型:统计与计算问题)Nihar Shah、Aditya Guntuboyina、 Martin Wainwright 加州大学伯克利分校;Sivaraman Balakrishnan 剑桥管理机构;
大规模学习与大数据
会议主席:Andreas Krause
地点:Empire
05:10 – Extreme F-measure Maximization using Sparse Probability Estimates (极端值最大化利用极低概率评估) Kalina Jasinska , Krzysztof Dembczynski、Robert Busa-Fekete、Karlson Pfannschmidt、Timo Klerx、 Eyke Hullermeier
05:27 – Stochastic Optimization for Multiview Representation Learning using Partial Least Squares(利用偏最小二乘法随机最优化多视图表示学习)Raman Arora 、Poorya Mianjy 约翰霍普金斯大学;Teodor Marinov
05:44 – Gaussian quadrature for matrix inverse forms with applications(矩阵逆形式的高斯积分及其应用)Chengtao Li 、Suvrit Sra、Stefanie Jegelka 麻省理工学院
06:01 – A Subspace Learning Approach for High Dimensional Matrix Decomposition with Efficient Column/Row Sampling (高效列/行采样的高维矩阵分解的子空间学习方法)Mostafa Rahmani、Geroge Atia 中佛罗里达大学
图模型
会议主席:Jun Zhu
地点:Soho
05:10 – Uprooting and Rerooting Graphical Models 图模型根除与重制 Adrian Weller 剑桥大学
05:27 – Structure Learning of Partitioned Markov Networks 马尔可夫网络分区的结构学习 Song Liu、Kenji Fukumizu国家数学统计研究所,Taiji Suzuki 、Masashi Sugiyama 东京大学
05:44 – Ensuring Rapid Mixing and Low Bias for Asynchronous Gibbs Sampling 使用快速混合和低偏置确保异步吉布斯采样 Christopher De Sa、Chris Re、Kunle Olukotun 斯坦福大学
06:01 – Estimation from Indirect Supervision with Linear Moments 线性矩间接监督的评估,Aditi Raghunathan、Roy Frostig、Percy Liang 斯坦福大学
监督式学习
会议主席:Nicolas Le Roux
地点:Liberty
05:10- Early and Reliable Event Detection Using Proximity Space Representation使用近似空间战士的早期和可靠时间检测 Maxime Sangnier 法国科学研究中心;Jerome Gauthier、Alain Rakotomamonjy消费电子协会
05:27- Meta–Gradient Boosted Decision Tree Model for Weight and Target Learning 权重与目标学习的元梯度加权决策树模型,Yury Ustinovskiy、Valentina Fedorova、Gleb Gusev、Pavel Serdyukov 俄罗斯Yandex公司
05:44 – Differential Geometric Regularization for Supervised Learning of Classifiers 微分几何正则化下的有监督学习式分类器,Qinxun Bai、Steven Rosenberg、Stan Sclaroff 波士顿大学,Zheng Wu 美国MathWorks公司
06:01 – Linking losses for density ratio and class-probability estimation 密度比和分级概率评估的链接损耗,Aditya Menon、Cheng Soon Ong 澳大利亚信息与通信技术机构
Via: ICML@NYC
雷峰网原创文章,未经授权禁止转载。详情见转载须知。