北京荨麻疹医院医师 http://pf.39.net/bdfyy/bdflx/210410/8833356.html深度神经网络本身的层次结构其实就是在做迭代的优化,做数据压缩,逐层逐步优化数据特征的表达。
——马毅
活动概况
5月27日上午,第四期AIR学术沙龙跨越太平洋,在清华大学智能产业研究院(AIR)图灵报告厅展开了一场精彩的隔空对话。本期活动荣幸地邀请到加利福尼亚大学伯克利分校电子工程与计算机科学系马毅教授线上做题为《基于第一原理的深度(卷积)神经网络》的报告,这是他首次用中文深度解析这一课题。
主持人马维英介绍马毅教授
本次演讲以完全"白盒"的方式,从数据压缩(以及群不变性)的角度来构造和阐释深度(卷积)神经网络。具体说明了现代深度层次架构、线性(包括卷积)算子和非线性激活,甚至所有参数,都能用数据压缩中“编码率减小”(RateReduction)的原理解释(以及群不变性)。网络所有层次结构、算子(包括卷积)、以及算子的参数值都能利用前向传播算法显式构造得出,无需反向传播算法进行学习。由此获得的ReduNet网络具备严格精确的基于几何、统计以及优化的意义。
现场观众向马毅教授提问
本次讲座由清华大学智能产业研究院(AIR)惠妍讲席教授、首席科学家马维英博士主持,现场观众认真听取报告并与马毅教授通过热烈的研讨与碰撞,贡献了一次影响深远的思想盛宴。同时,讲座也在清华大学智能产业研究院(AIR)