深度学习为何泛化能力好? 探究《 深度学习中的隐式正则化》从矩阵和张量分解中得到的教训(附视频&PPT)

数据派THU

共 765字,需浏览 2分钟

 ·

2021-04-17 19:45


来源:专知

本文附PPT,建议阅读5分钟

深度神经网络泛化的神秘能力被认为源于隐式正则化。


深度神经网络泛化的神秘能力被认为源于隐式正则化,一种基于梯度的优化的趋势,以拟合训练数据与低复杂度的预测器。“形式化这种直觉的一个主要挑战是,我们缺乏对复杂性的度量,既要量化,又要捕捉承认泛化的数据的本质(图像、音频、文本等)。考虑到这一挑战,我将介绍最近的隐式正则化在矩阵分解(等价于线性神经网络)和张量分解(等价于某种类型的非线性神经网络)中的分析。通过动态描述,我将建立隐式的低秩正则化,不同于任何类型的范数最小化,与先前的信念相反。然后,由于张量秩捕获非线性神经网络的隐式正则化,我将建议将其作为复杂度的度量,并表明在拟合标准数据集时它保持极低的水平。这就产生了张量秩解释神经网络的隐式正则化和将其转化为泛化的真实数据的特性的可能性。

链接:
http://www.ipam.ucla.edu/abstract/?tid=16593&pcode=TMWS1


目录:

1 深度学习隐式正则化 Implicit Regularization in Deep Learning 
2 矩阵分解 Matrix Factorization 
3 CP张量分解 CP Tensor Factorization 
4 张量秩 Tensor Rank as Measure of Complexity 
5 结论 Conclusion




编辑:文婧

浏览 25
点赞
评论
收藏
分享

手机扫一扫分享

分享
举报
评论
图片
表情
推荐
点赞
评论
收藏
分享

手机扫一扫分享

分享
举报