最新《大间隔学习》综述论文,清华大学张长水老师等

数据派THU

共 532字,需浏览 2分钟

 ·

2021-04-19 17:11


来源:专知

本文为论文,建议阅读5分钟
本文综述了近年来在大间隔训练及其理论基础方面取得的进展。


本文综述了近年来在大间隔训练及其理论基础方面取得的进展,主要针对(非线性)深度神经网络(DNNs),这可能是过去十年来社区中针对大规模数据最著名的机器学习模型。我们概括了从经典研究到最新DNNs分类边界的形成,总结了间隔、网络泛化和鲁棒性之间的理论联系,并全面介绍了近年来在扩大DNNs分类间隔方面所做的努力。由于不同方法的观点存在差异,为了便于比较和讨论,本文将其分组。希望我们的讨论和概述能够启发社区中旨在提高DNNs性能的新研究工作,也为大间隔原则的验证指明方向,为DNNs的某些正则化在实践中发挥良好作用提供理论依据。我们设法缩短了论文,以便更好地强调大间隔学习的关键思想和相关方法。

https://www.zhuanzhi.ai/paper/617d18bafec0d3c2310043f9f6822010




编辑:文婧

浏览 23
点赞
评论
收藏
分享

手机扫一扫分享

分享
举报
评论
图片
表情
推荐
点赞
评论
收藏
分享

手机扫一扫分享

分享
举报