北京通用人工智能研究院BIGAI

「通智大师班」刘强:一种基于流的简单统一方法

Title

生成建模,迁移学习,最优传输: 一种基于流的简单统一方法

Bio

刘强,德州大学奥斯汀分校助理教授,华深智药AI首席科学家。主要研究方向包括统计机器学习方法,图模型,贝叶斯推断,深度学习等。 他是JMLR编委,经常性担任NeurIPS、ICML、ICLR等机器学习会议的领域主席, 曾获美国NSF Career award、AISTATS最佳论文等奖。

Abstract

给定两个经验分布,如果找到一个他们之间的传输映射 (transport map)?这个简单的问题其实提供了机器学习中的很多基本任务的统一框架:生成建模 (generative modeling) 是将高斯或其他基本随机变量转换为真实的数据点;域转移 (domain transfer) 关注如何将数据点从一个域转移到另一个域;最优传输 (optimal transport) 解决如何找到最优传输映射来达到最低的运输成本。不幸的是,尽管有这么一个统一的框架,我们却没有一个统一的算法来解决这些问题。现有的算法需要逐案开发,并且往往很复杂或计算量很大。

这次讲座,我会介绍一种简单的统一的算法来解决该问题。这个方法是基于学习神经常微分方程 (ODE) 和随机微分方程 (SDE)。关键思想之一是通过尽可能沿直线路径来达到最优传输。这些方法极大地简化,改进,和提高了现有的去噪扩散模型 (denoising diffusion models): 通过我们的方法学习的 ODE 模型可以通过单步离散化生成高质量的结果,这是对现有的扩散生成模型的显着加速。我还将重点介绍这项方法在分子生成和抗体设计中的应用。

Facebook
Twitter
LinkedIn
Email