南加州大学的研究人员在NeurIPS 2021年发表了30篇论文

| 2021年12月6日

论文主题包括机器学习、深度学习、神经网络和优化。

南加州大学的NeurIPS

随着机器学习和人工智能创新的速度比以往任何时候都快,一年一度的神经信息处理系统会议(NeurIPS)将研究人员和工程师聚集在一起,分享新发现,并就推动人工智能走向未来的想法进行合作。

总共有30篇由南加州大学附属研究人员共同撰写的论文被选中在本周的2021年活动(12月6日至14日)上发表,展示了最终可能彻底改变行业并造福人类的新工作。NeurIPS是全球机器学习和人工智能研究领域的顶级会议之一,整体录取率为26%。

三篇南加州大学的论文被选为口头报告,录取率不到1%。南加州大学的五篇论文被选为聚光灯,录取率为3%。

NeurIPS 2021:演示重点

图像

马特·方丹,南加州大学计算机科学博士生

在一篇被选为著名的口头报告的论文中,主要作者马特·方丹和他的导师助理教授塞浦路斯Nikolaidis提出了质量多样性(QD)优化的第一个可微版本。应用可能包括图像生成、机器人损伤恢复和视频游戏开发。

与马特·方丹的问答

用几句话,你能解释一下这项研究是关于什么的吗?还有,请告诉我们:Beyoncé在研究中的地位如何?

许多深度学习问题将问题归结为一个目标。例如,如果您要生成一张名人的照片(例如Beyoncé-then),您的目标将是使图像尽可能接近提示。但是,你想要一个年长的还是年轻的Beyoncé?深度学习方法需要你选择一个特定的年龄,并将其添加到你的目标中。

相比之下,进化计算领域有一个被称为“质量多样性问题”的问题。除了目标之外,您还可以指定年龄等度量。然后,质量多样性(QD)算法可以获取这些输入,并发现Beyoncé的一组照片(而不是一张照片),用于一系列年龄,或任何其他您希望具有多样性的度量。

上图:由人工智能生成的“碧昂斯”的图像集合,这些图像在一次算法运行中随着年龄和头发长度的变化而变化。

除了图像生成,还有一些什么QD算法的应用?

QD算法已经应用于机器人的损伤恢复,生成各种可玩的视频游戏关卡集合,以及设计空气动力学形状——比如飞机机翼或汽车。

我们早期的工作展示了QD算法如何为人-机器人机器人交互生成各种故障场景的集合,并生成给人-机器人团队带来困难的各种环境的集合。

目前的量子点算法有哪些局限性?

深度学习中单一目标的一个优势是,你可以利用目标的梯度来提高搜索效率。梯度就像一个指南针,为你指明前进的方向,从而提高你的目标。目前的QD算法只是通过反复试验来近似这个指南针,使得算法效率低下。利用精确的梯度进行质量多样性优化一直是一个悬而未决的问题。

你建议的解决办法是什么?

在我们的论文中,我们展示了如何为目标(即Beyoncé)使用“梯度指南针”,以及如何为测量(即年龄)使用“梯度指南针”,这使我们能够有效地增加或减少生成照片中人物的年龄。我们的方法允许我们从进化计算社区中引入质量多样性的思想,并使它们在深度学习环境中高效。

你为什么对这项研究感到兴奋?

现在大多数机器学习都使用梯度和梯度下降算法,这意味着影响机器学习领域的潜力是巨大的。事实上,几乎NeurIPS的每一篇论文都在某种程度上使用了梯度下降——“梯度罗盘”引导搜索的名称。

我们希望我们的方法能在深度学习的许多不同子领域产生广泛的影响,这真的很令人兴奋。我们的方法为机器学习的任何地方打开了许多潜在的应用;我们期望质量多样性的应用将大大扩大,现在我们有可微分的质量多样性算法。

南加州大学的论文:

口头报告:

MAUVE:使用发散边界测量神经文本和人类文本之间的差距

Krishna Pillutla(华盛顿大学),Swabha Swayamdipta(艾伦人工智能研究所/南加州大学),Rowan Zellers(华盛顿大学),John Thickstun(华盛顿大学),Sean Welleck(华盛顿大学),Yejin Choi(华盛顿大学),Zaid Harchaoui(华盛顿大学)

两全其美:过渡未知的随机和对抗性的情景MDPs(选作口头陈述)

金天成(美国南加州大学)·黄龙波(清华大学IIIS)·罗海鹏(美国南加州大学)

可区分的质量多样性

Matthew Fontaine(南加州大学),Stefanos Nikolaidis(南加州大学)

聚光灯下的演讲:

基于多小波的微分方程算子学习

高拉夫·古普塔(南加州大学),肖雄业(南加州大学),保罗·博格丹(南加州大学)

在情节难度上的均匀抽样

Sébastien Arnold(南加州大学),Guneet S Dhillon(亚马逊网络服务),Avinash Ravichandran (AWS), Stefano Soatto (UCLA)

MEST:精确快速的边缘记忆经济稀疏训练框架

袁耿(东北大学)、马晓龙(东北大学)、牛伟(威廉玛丽学院)、李振刚(东北大学)、孔正伦(东北大学)、刘宁(美的)、龚一凡(东北大学)、詹政(东北大学)、何朝阳(南加州大学)、金庆(东北大学)、王思岳(谷歌)、秦明海(WDC研究院)、任斌(威廉玛丽学院计算机系)、王艳芝(东北大学),刘思佳(密歇根州立大学),林雪(东北大学)

用复合解释精炼语言模型

姚慧涵(北京大学)、陈颖(清华大学)·叶钦元(南加州大学)、金希森(南加州大学)、任翔(南加州大学)

使用条件直方图的保形预测

Matteo Sesia(南加州大学),Yaniv Romano(斯坦福大学)

海报展示:

知识蒸馏中不可蒸馏教师的保密性分析

Souvik Kundu(南加州大学)、孙启瑞(南加州大学)、付尧(南加州大学)、马苏德·佩德拉姆(南加州大学)、彼得·比尔尔(南加州大学)

通过统一的内部分布进行终身域适应

默罕默德·罗斯塔米(南加州大学)

基于梯度的在线无任务持续学习记忆示例编辑

金希森(南加州大学),Arka Sadhu(南加州大学),杜俊毅(南加州大学),任翔(南加州大学)

学习将程序综合为可解释和可推广的策略

Dweep Kumarbhai Trivedi(南加州大学),Jesse Zhang(加州大学伯克利分校),孙少华(南加州大学),Joseph Lim(南加州大学)

从观察推断目标接近度的可推广模仿学习

李永云(南加州大学),安德鲁·斯佐特(佐治亚理工学院),孙少华(南加州大学),约瑟夫·林(南加州大学)

从常识推理的知识图解释中学习

Aaron Chan(南加州大学),Xu jishuu(南加州大学),Boyuan Long(南加州大学),Soumya Sanyal(印度科学院,班加罗尔),Tanishq Gupta(印度理工学院德里),任翔(南加州大学)

多智能体轨迹预测中的协同不确定性

唐伯涵(牛津大学)·钟贻琪(南加州大学)·Ulrich Neumann(南加州大学)·王刚(北京理工大学)·陈思恒(MERL)·张亚(上海交通大学媒介网络合作创新中心)

快速采样的非牛顿动量哈密顿动力学

Greg Ver Steeg(南加州大学信息科学研究所)·Aram Galstyan(南加州大学信息科学研究所)

小的随机初始化类似于谱学习:优化和泛化保证了过参数化的低秩矩阵重建

Dominik Stöger (Katholische Universität Eichstätt-Ingolstadt), Mahdi Soltanolkotabi(南加州大学)

图表示学习的隐式SVD

Sami A Abu-El-Haija(南加州大学信息科学研究所),Hesham Mostafa(英特尔公司),Marcel Nassar(英特尔公司),Valentino Crespi(南加州大学信息科学研究所),Greg Ver Steeg(南加州大学信息科学研究所),Aram Galstyan(南加州大学信息科学研究所)

VigDet:用于社交媒体协调检测的知识告知神经时间点过程

张一舟(南加州大学),Karishma Sharma(南加州大学),刘岩(南加州大学)

随机最短路径的隐式有限视界逼近与高效最优算法

陈立宇(南加州大学)、Mehdi Jafarnia-Jahromi(南加州大学)、Rahul Jain(南加州大学)、罗海鹏(南加州大学)

不确定性下排名的公平性

Ashudeep Singh(康奈尔大学)、David Kempe(南加州大学)、Thorsten Joachims(康奈尔大学)

稀疏变化高斯马尔可夫随机场的可伸缩推断

Salar Fattahi(密歇根大学),Andres Gomez(南加州大学)

具有多样性约束的稳健分配

Zeyu Shen(杜克大学),Lodewijk Gelauff(斯坦福大学),Ashish Goel(斯坦福大学),Aleksandra Korolova(南加州大学),Kamesh Munagala(杜克大学)

黑盒学习算法的信息论泛化边界

Hrayr Harutyunyan(南加州大学信息科学研究所),Maxim Raginsky(伊利诺伊大学香槟分校),Greg Ver Steeg(南加州大学信息科学研究所),Aram Galstyan(南加州大学信息科学研究所)

广泛形式游戏中的最后迭代收敛

李忠伟(南加州大学)、克里斯蒂安·克罗尔(哥伦比亚大学)、罗海鹏(南加州大学)

对抗性mdp中的策略优化:通过扩大奖励来改进探索

罗海鹏(美国南加州大学)、魏振宇(美国南加州大学)、李忠伟(美国南加州大学)

长尾目标检测与实例分割的模型标定

潘泰宇(俄亥俄州立大学),张诚(俄亥俄州立大学),李延东(中佛罗里达大学),胡和祥(南加州大学),宣东(俄亥俄州立大学),Soravit Changpinyo(南加州大学(USC),龚伯庆(中佛罗里达大学),Chao -伦(俄亥俄州立大学(OSU)

用规则表示控制神经网络

徐圣敬(南加州大学)、Sercan Arik(谷歌)、尹振成(谷歌)、张翔(纽约大学)、孙基赫(谷歌)、托马斯·菲斯特(谷歌)

图神经网络深度与范围的解耦

曾汉清(南加州大学),张穆汉(北京大学),夏英龙(南加州大学),Ajitesh Srivastava(南加州大学),Andrey Malevich (Facebook), Rajgopal Kannan (DoD HPCMP), Viktor Prasanna(南加州大学),金龙(Facebook),陈仁(南加州大学)

Luna:线性统一嵌套注意力

马学哲(卡内基梅隆大学)·孔翔(卡内基梅隆大学)·王思农(Facebook AI)·周春婷(卡内基梅隆大学语言技术研究所)·Jonathan May(南加州大学)·马浩(Facebook AI)·Luke Zettlemoyer(华盛顿大学和Facebook)

出版于2021年12月6日

最后更新于2021年12月6日

分享这个故事