高瓴人工智能学院师生4篇论文被CCF A类会议ICML录用
5月8日,中国计算机学会(CCF)推荐的A类国际学术会议ICML 2021论文接收结果公布。中国人民大学高瓴人工智能学院师生有4篇论文被录用。国际机器学习大会(International Conference on Machine Learning,简称ICML)是由国际机器学习学会(IMLS)主办的机器学习国际顶级会议,ICML 2021录用率为21.48%。
2021年1月至今,高瓴人工智能学院已发表或被录用CCF A类国际期刊或和会议论文47篇、CCF B类期刊和论文5篇,以中国人民大学师生为第一作者或通讯作者发表的论文数量为47篇。
论文题目:Sharper Generalization Bounds for Clustering
作者:李少杰,刘勇
通讯作者:刘勇
论文概述:现有的聚类泛化分析主要集中在具体算法上,如(核)k-means,缺乏研究聚类性能的统一框架。此外,在基础分布有界的假设条件下,现有的超过聚类风险界大多为根号n分之K阶的结果,其中n是样本大小,K是聚类簇数。如果对基础分布做更强的假设,超过风险界为n分之K平方阶的结果,但这些假设在实际中一般难以验证。本文提出了一个统一的聚类学习框架,并研究其超额风险界,在更温和的假设下得到了最新的上界。具体地,如果假设函数是有界的,我们将根号n分之K阶的结果改进到根号n分之根号K。此外,在假设空间覆盖数的一些温和假设下,我们得到了n分之K平方的更紧的超过聚类风险界,并且这些假设易于验证。此外,对于硬聚类方案,我们得到了n分之K阶的最新上界。
论文题目:Distributed Nystrom Kernel Learning with Communications
作者:殷荣,刘勇,王伟平,孟丹
论文概述:核岭回归(kernel ridge regression,KRR)是一类重要的统计机器学习方法,但其时间和空间复杂度限制其在大规模场景中的应用。分布式是一种常用的改进KRR学习效率的方法,但已有的分布式KRR统计学习理论表明,如果想保证与原始KRR相同的统计精度,分块数必须为常数,这大大限制了分布式KRR的推广。本文中,我们提出了一类高效的分布式Nystrom方法,该方法在保证与原始KRR相同的统计精度下,时间和空间复杂度极大降低。为了进一步保证与原始KRR得到相同的概率误差界,在原有分布式Nystrom方法的基础上提出了一种全新的通讯策略,能进一步降低对分块数的要求。在仿真实验中验证了理论的有效性。
论文题目:Estimating alpha-Rank from A Few Entries with Low Rank Matrix Completion
作者:杜雅丽,闫雪,陈旭,张海峰,汪军
论文概述: 多智能体评估旨在根据用户策略的交互来评价他们之间的优劣。传统的方法,例如alpha-rank,通常通过两两对比的方式来实现。这在现实中是十分耗时的。在本文中,我们希望能够降低策略之间的比较次数并能准确估计最终排序的结果。我们的核心假设是相似智能体与其他智能体的优劣关系具有相似性。我们考虑两种情况,一种是完全已知真实的payoff矩阵,另一种是只能观察到带有噪声的payoff矩阵。我们发现在这两种情况下,我们都可以用O(nrlog n)(其中n是智能体个数,r是payoff矩阵的秩)次比较就可以预测出排序结果。我们设计了大量实验来验证算法的正确性。
论文题目:Graph Neural Networks Inspired by Classical Iterative Algorithms
作者:Yongyi Yang,Tang Liu,Yangkun Wang,Jinjing Zhou,QuanGan,魏哲巍,Zheng Zhang,Zengfeng Huang,David Wipf
论文概述: 图神经网络(GNN)作为建模实体间关系的代表性方法,已被成功应用于多个领域。然而现有方法仍存在一些局限性,例如过平滑问题、长距离依赖性问题等。本篇论文基于两种经典迭代算法提出了首个unfolding视角的GNN集成框架TWIRLS,首先通过模仿近似梯度下降设计了一个可扩展的基础GNN架构,能够允许任意的传播步骤以捕捉长距离依赖关系同时有效避免过平滑问题。在此基础上,结合迭代加权最小二乘法的更新规则提出了新的注意力机制系列,无需引入额外参数或设计启发式方法而对边的不确定性表现鲁棒。同时,本篇论文进行了大量实验旨在评估不同情况下算法的性能,实验结果表明,即使与特定任务SOTA模型相比,本篇论文所提算法均取得具有竞争力或更高的节点分类精度。
来源:高瓴人工智能学院