近日,香港中文大学(深圳)数据科学学院查宏远教授团队四篇论文被神经信息处理系统国际会议NeurIPS 2020收录。论文所述研究均聚焦于提高并改进机器学习的框架模型及算法,且在实际应用中具有良好的性能。
数据科学学院查宏远教授团队在神经信息处理系统国际会议NeurIPS发表4篇论文
近日,香港中文大学(深圳)数据科学学院查宏远教授团队四篇论文被神经信息处理系统国际会议NeurIPS 2020收录。论文所述研究均聚焦于提高并改进机器学习的框架模型及算法,且在实际应用中具有良好的性能。
No.1
Network Diffusions via Neural Mean-Field Dynamics
基于神经平均场动力学的网络传播
摘要
我们提出了一种基于神经平均场动力学 (Neural Mean-Field Dynamics, 简称NMF) 的新型学习框架,用于从网络传播的数据中估计网络结构和节点的感染概率。通过有记忆的延迟微分方程,NMF能描述节点感染概率的精确演变过程。同时,NMF直接使用级联数据来估测网络结构,为其他应用(例如影响最大化)提供了基础。此外,我们还建立了参数学习与最佳控制之间的联系。实验表明,NMF对于网络传播模型的变体具有良好的通用性和鲁棒性,并且在合成数据和真实数据上的准确性和效率均明显优于现有方法。
实验表明,NMF的准确率明显高于其他方法
No.2
Learning to Incentivize Other Learning Agents
学习激励其他智能体
摘要
近年来,开发功能强大且通用的强化学习(RL)智能体的挑战日益受到关注。现有的工作大多集中在单智能体任务中,以最大化单个智能体奖励函数为目标。然而,一个不可避免的问题是:当这些独立的智能体在一个共享的环境中不断学习和发展时,他们将如何合作行动?考虑到人类通常会提供激励(Incentive)来影响他人的行为,我们提出学习激励函数,即在多智能体环境中为每个RL智能体配备直接向其他智能体给予奖励的能力。每个智能体通过考虑其对接收者学习的影响以及通过接收者对其自身目标的影响,来学习自己的激励函数。我们的实验证明,在马尔可夫博弈中,此类智能体会通过找到接近最优的分工来进行合作,其表现远胜于标准RL智能体。
实验表明,具备激励函数的多智能体有着优异的表现
No.3
Learning Strategic Network Emergence Games
学习策略性网络生成博弈
摘要
用于网络分析的机器学习方法通常假设网络生成的内在机制具有随机性。但现实中的网络生成,特别是由于有生命的智能体(例如人,动物)的行动而出现的网络,一般是执行最大化个人或集体利益的策略的结果。能够学习这些策略的方法将获得更多的可解释性和灵活性。为此,我们考虑了基于博弈的网络生成模型并提出了网络生成机制的多智能体逆模型(Multi-agent Inverse models of Network Emergence mechanism, 简称MINE), 一种使用多智能体逆强化学习来解决Markov-Perfect网络生成博弈的新学习框架。MINE以网络生成策略的形式估计了智能体的策略同时以奖励函数的形式描述了潜在的回报机制。在实验中,我们证明了MINE学到的奖励函数和策略与真实值高度相关并且可以用于分析网络结构。此外,我们的工作表明,网络生成博弈作为一种学习模型,可以支持有意义的策略预测,从而表明其对各种网络分析任务的适用性。
实验表明,MINE学习到的奖励函数与真实值高度相关
No.4
Differentiable Top-k with Optimal Transport
基于最优传输的可微分Top-k运算
摘要
Top-k运算(即从集合中找到最大/小的k个元素)被广泛应用于信息检索,机器学习和数据挖掘中。常用的Top-k算法(例如,冒泡搜索)往往需要交换数据索引 (Index),这导致使用Top-k算法的模型无法计算梯度,因此无法使用梯度下降算法以端对端的方式进行训练。此外,从数据到indicator向量的映射通常是不连续的。为了解决这个问题,我们提出了Scalable Optimal Transport-based Differentiable (SOFT) top-k运算。具体地,我们的SOFT top-k运算将top-k的输出近似为熵最优传输 (Entropy Optimal Transport, EOT) 问题的解,然后通过EOT问题的最优条件估计SOFT Top-k运算的梯度。实验证明,我们的SOFT运算在KNN和束搜索算法中均有优异的表现。
SOFT Top-k在KNN中取得了优异的成果
会议简介
NeurIPS, 全称神经信息处理系统大会(Conference and Workshop on Neural Information Processing Systems),是一个关于机器学习和计算神经科学的国际会议。该会议固定在每年的12月举行,由NeurIPS基金会主办。NeurIPS是机器学习领域的顶级会议 。在中国计算机学会的国际学术会议排名中,NeurIPS为人工智能领域的A类会议。NeurIPS 2020接受的论文主要覆盖神经网络、深度学习、强化学习。NeurIPS 2020共收到有效投稿9467,其中收录1899篇论文,录用率约为20.06%。
教授简介
查宏远
博士(斯坦福大学)
香港中文大学(深圳)数据科学学院副院长(科研)
深圳市人工智能与机器人研究院副院长
美国乔治亚理工学院计算所计算科学与工程系教授
研究领域:机器学习,包括随机点过程,最优传输理论及应用,图神经网络,强化学习及应用
查宏远教授现为香港中文大学(深圳)校长讲座教授,数据科学学院副院长,主管科研。此外,他也在美国乔治亚理工学院计算机学院任教授一职,目前正在休假中。查宏远教授1984年毕业于复旦大学数学系, 并于1993年获得斯坦福大学科学计算专业博士学位。查教授与1992年至2006年任职于宾州州立大学计算机科学与工程学院,他也曾于1999年至2001年任职于 Inktomi 公司。他目前的研究方向是机器学习,包括随机点过程,最优传输理论及应用,图神经网络,强化学习及应用。
查教授在计算机等相关领域的主流科技期刊和顶级学术会议上发表290左右篇论文,据谷歌学术统计,截止2020年10月,谷歌H-index 76,总引用率超23600次。曾荣获多项重要学术奖项,如 Institute of Mathematics and Applications(IMA)授予的“莱斯利福克斯奖(Leslie Fox Prize)”二等奖(1991年),第34界ACM SIGIR国际信息检索会议(SIGIR 2011)最佳学生论文奖(指导教授)(2011年),第26届NeurIPS“最佳论文奖” (2013年)。查教授曾担任数据科学领域顶级期刊TKDE编委。査教授的研究得到了美国国家科学基金会(NSF)、美国国防部高等研究计划署(DARPA)、美国国立卫生研究院(NIH)、美国国防部(DoD)、中国国家自然科学基金(NSFC)以及多个互联网公司的资助。