暑期学校

2023年度北京大学研究生应用数学专题讲习班教学内容和教学大纲

课程一

  • 课程名称分子动力学模拟和深度学习

  • 授课老师王涵,北京应用物理与计算数学研究所

  • 授课时间2023/7/10-2023/7/21 9:00-11:00(注:7月18日课程暂停,7月19日课程时间改为8:00-12:00)

  •  

  • 教学内容

  • 分子动力学模拟是一种广泛应用于物理、化学、材料科学等学科研究的模拟方法。虽然已经取得了广泛的应用,但是分子动力学模拟仍然存在诸多局限,包括精度难以定量控制,稀有事件采样效率低等困难。本课程首先介绍分子动力学模拟的基本原理,包括原子间相互作用建模,短程和长程相互作用计算,稀有事件采样方法等课题;之后介绍深度学习方法在原子间相互作用建模和稀有事件采样等问题中的应用。

  •  

  • 教学大纲

  • 热力学与统计物理基础

  •  
  • 分子动力学模拟基础
  • 分子动力学时间积分格式
  • 原子间相互作用计算方法
  • 深度学习建模原子间相互作用
  • 稀有事件的增强采样方法
  • 深度学习在增强采样方法中的应用
  •  

课程二

  • 课程名称Emergent Phenomena in Mathematical Models for Biology and Medicine

  • 授课老师Philip Maini,牛津大学

  • 授课时间2023/7/10-2023/7/14 15:00-16:30 (线上授课)

  •  

  • 教学大纲

  • Lecture 1: Pattern Formation 1 - this lecture will present and analyse Turing's classical
    model for biological pattern formation

    Lecture 2: Pattern Formation 2 - we will review the application of mathematical models
    for pattern formation in developmental biology

    Lecture 3: Travelling Waves 1 - this lecture will present and analyse the classical
    Fisher-KPP model for travelling waves and explore its application in medicine
    (wound healing and cancer)

    Lecture 4: Travelling Waves 2 - we will continue to review applications of the Fisher-KPP
    equation as well as consider a hybrid model for travelling waves

    Lecture 5: Conclusions and Future Directions

课程三

  • 课程名称机器学习的优化理论与算法

  • 授课老师Martin Jaggi,洛桑联邦理工学院 (EPFL)

  • 授课时间2023/7/31-2023/8/4 14:00-17:00 

  •  

  • 教学内容

  • 本课程讲授适用于机器学习和数据科学中应用的现代优化方法,特别将在理论上和具体实现中讨论算法对大型数据集的可扩展性。 我们还将讨论协作学习中的应用,例如联邦学习等。

  •  

  • 教学大纲

  • ◆基础知识:凸性、梯度方法、近似点算法、上述方法的随机和在线版本、坐标下降法、次梯度算法、非凸优化、Frank-Wolfe方法、加速方法、原始对偶算法、拉格朗日和Fenchel对偶、二阶算法、拟牛顿法、无梯度和零阶优化方法。

  • ◆高级内容:非凸优化:临界点收敛性、深度线性神经网络收敛性、鞍点方法、并行和分布式优化算法、同步和异步通信、联邦学习、协作学习、隐私计算、分散式优化。

  •  

课程四

  • 课程名称深度学习理论

  • 授课老师Zhiyuan Li,斯坦福大学

  • 授课时间2023/7/24-2023/8/4 9:30-11:30 

  •  

  • 教学大纲:

  • ◆深度学习优化理论
  •  -回顾优化理论基础
  •  -比较传统优化理论与深度学习实践的差别
  •  -归一化层在优化中的作用的理论分析
  •  -梯度下降的“稳定性边缘”(edge of stability)现象及其初步理论分析
  • 深度学习泛化理论
  •  -回顾泛化理论基础:概率集中不等式,rademacher复杂度,VC复杂度
  •  -比较传统泛化理论与深度学习实践的差别,引入隐式正则化的概念
  •  -神经切线核
  •  -线性分类问题的隐式正则化— 最大间隔偏好 (max margin implicit bias)
  •  -重参数化引起的隐式正则化
  •  -基于平坦度(flatness)的隐式正则化
  •