近日,中国人民大学高瓴人工智能学院师生2篇论文被国际学术会议NeurIPS(2020)录用。第34届神经信息处理系统会议(Thirty-fourth Conference on Neural Information Processing Systems)将于2020年12月6日-12月12日在线上召开。 NeurIPS是CCF推荐的A类国际学术会议,是机器学习和计算神经科学领域顶级学术会议之一。本届NeurIPS会议共收到投稿9454篇,其中录用论文1900 篇,录取率约为20.1%。
论文介绍
论文题目:Scalable Graph Neural Networks via Bidirectional Propagation
作 者:陈明(人大硕士生),魏哲巍,丁博麟,李雅亮,袁野,杜小勇,文继荣
通讯作者:魏哲巍教授
论文概述:图神经网络(GNN)是一个新兴的非欧氏数据学习领域。近年来,人们对设计可扩展到大型图形的GNN越来越感兴趣。大多数现有的方法使用“图采样”或“分层采样”技术来减少训练时间;但是,这些方法在应用于具有数十亿条边的图时仍然无法提供可靠的性能。在本文中,我们提出了一种可伸缩的图神经网络GBP,同时从特征向量和训练/测试节点进行双向消息传播,为每个表示生成一个无偏估计量。每个传播都是以局部方式执行的,从而实现了亚线性时间复杂性。广泛的实验证明,GBP达到了state-of-the-art性能同时显著减少训练和推理时间。在单台机器上,GBP能够在不到2000秒的时间内,在一个拥有超过6000万个节点和18亿条边的图形上提供优异的性能。
论文题目:Learning to Discriminatively Localize Sounding Objects in a Cocktail-party Scenario
作 者:胡迪,钱锐,蒋旻悦,谭啸,文石磊,丁二锐,林巍峣,窦德景
通讯作者:胡迪 助理教授
论文概述:如何在具有多种声源的『鸡尾酒会』中区分不同的声音对象,这对人类来说是一项基本能力,但对当前的机器而言却仍然极具挑战!为此,本文提出一种基于课程学习策略的两阶段框架,实现了自监督下不同发声物体的判别性感知与定位。首先,我们提出在单声源场景中聚合候选声音定位结果以学习鲁棒的物体表征。进而在鸡尾酒会情景中,参考先期课程学习到的物体知识以生成不同物体的语义判别性定位图,通过将视音一致性视为自监督信息,匹配视音类别分布以滤除无声物体和选择发声对象。大量基于合成和真实多声源场景的实验表明,本文所提模型能够实现在无语义类别标注情形下,同时滤除无声物体和指出发声物体的明确位置并判定其类别属性,这在视觉多声源定位上尚属首次。
图1包含多个发声物体和无声物体的『鸡尾酒会』场景
图2 多声源定位结果。绿色代表发声物体,红色代表无声物体。
检测到您当前使用浏览器版本过于老旧,会导致无法正常浏览网站;请您使用电脑里的其他浏览器如:360、QQ、搜狗浏览器的速模式浏览,或者使用谷歌、火狐等浏览器。
下载Firefox