题 目:what's deep learning theory?
主讲人:张世华 研究员
单 位:中国科学院数学与系统科学研究院
时 间:8月21日下午16:30
地 点:数学与统计学院二楼会议室
摘 要:以深度神经网络为代表的深度学习作为一种黑箱模型,是通过大量计算实验得到的,其数学理论逐渐引起研究者的广泛关注。本报告将从几个不同的角度介绍深度学习理论,尝试澄清不同深度学习理论研究之间的联系和差别。主要包括:(1)深度学习的神经坍缩现象和渐进前向坍缩现象;(2)深度神经网络的信息瓶颈视角及其局限;(3)多层卷积稀疏编码与深度神经网络的等价联系;(4)残差深度神经网络逼近wasserstein空间测地线理论;(5)最优传输诱导的深度鲁棒模型;(6)自注意力机制的动力学理解与启发。深度学习理论的目标是为以深度学习为核心的人工智能提供坚实的理论基础,帮助人们更好地理解人工智能的工作原理,提高模型的性能,以及解决实际应用中的挑战。
简 介:张世华,中国科学院数学与系统科学研究院研究员。主要从事人工智能理论与算法、生物信息计算研究,主要研究工作包括:(1)单细胞与空间组学的智能表示、集成与建模,以及在复杂疾病、发育和进化等领域的应用 (nature computational science, nature communications 2024/2023/2022, genome biology 2024, genome research 2023, cell reports 2022, national science review 2022, nucleic acids research 2024/2023/2019);(2)三维基因组计算解析与应用(cell 2022, genome research 2023, advanced science 2024/2023/2019, nucleic acids research 2019);(3)深度学习理论与算法设计(jmlr 2022, nsr 2021, tpami 2021/2024, tkde 2021/2022, tnnls 2021/2022)。曾荣获中国青年科技奖、国家高层次人才计划领军人才等。成果连续入选2021与2022年度中国生物信息学十大进展。现任plos computational biology等杂志编委。