笔记|李宏毅老师机器学习课程,视频19卷积神经网络

共 1896字,需浏览 4分钟

 ·

2021-06-13 00:00




 是新朋友吗?记得先点数据科学与人工智能关注我哦~



《学习笔记》专栏·第22篇


 | MLer


1145字 | 4分钟阅读





【数据科学与人工智能】开通了机器学习,大家可以相互学习和交流。请扫描下方二维码,备注:姓名-ML,添加我为好友,诚邀你入群,一起进步




感谢李宏毅老师的分享,他的课程帮助我更好地学习、理解和应用机器学习。李老师的网站:


http://speech.ee.ntu.edu.tw/~tlkagk/index.html


这个学习笔记是根据李老师2017年秋季机器学习课程的视频和讲义做的记录和总结。因为这个视频是在Youtube上面,有些朋友可能无法观看,我把它搬运下来放在云盘上面,大家点击阅读原文,就可以直接在手机随时随地观看了。再次,感谢李老师的付出和贡献。


这门课,共有36个视频,每个视频播放的时间不一。我按着视频播放的顺序,观看,聆听和学习,并结合讲义,做学习笔记。我做学习笔记目的有三:


1 帮助自己学习和理解机器学习


2 记录机器学习的重要知识、方法、原理和思想


3 为传播机器学习做点事情


视频19:卷积神经网络


一、为什么CNN适合Image?


李老师说CNN,相对于DNN,全连接的网络,是一个更加简单的模型,它基于先验知识,去把原来全连接的layer里面的一些参数拿掉,就变成了CNN。为什么可以这样做?




洞察一:一个Pattern只需要观察一个小的区域,例如,识别鸟嘴。



洞察二:同样Pattern出现在不同区域时,可以用同一组参数来识别,即参数共享机制。




洞察三:对图像做子抽样,subsampling,不会影响图像识别。如下图:


同样Pattern出现在不同区域时,可以用同一组参数来识别,即参数共享机制。







基于这个三个洞察,CNN的整体架构,如下图:





卷积层对应于洞察一、二,而池化层对应于洞察三。



二、卷积层Convolution


李老师详细介绍了卷积层的计算和处理逻辑,以及与洞察一和二的关系,原始数据、卷积核、卷积运算、步长(stride=1)、Feature Map,卷积层与全连接的关系,这些知识,在卷积层里面会用到。更详细的内容,请观看视频。






思考题:


彩色图像如何做卷积运算?(请留言)




卷积层与全连接的关系


利用先验知识,用更少的参数来达成了学习的目的。


更少的参数,决定了更少的神经元个数和权重





三、池化层Max Pooling


池化层用于解决做洞察三的事情







四、全连接层


用于把最后输出的Feature Map拉直和拼接,构建一个DNN。







五、基于Keras实现CNN


李老师,以手写数字识别为例子,介绍了CNN架构,如何在Keras上做设计和实现。





六、CNN为什么可以学习?


李老师对CNN这个网络架构为什么能够学习做了深入浅出的解释,推荐观看视频。





同时,李老师分享了两个有趣的Deep现象,一个是Deep Dream,另一个是Deep Style。






七、CNN的广泛应用


CNN有着广泛地应用,尤其是在图像领域或者类似图像的领域。


李老师分享了这些应用实例。


1 围棋比赛,Playing Go





2 语音领域







3 文本领域









详细内容,请观看视频。




朋友们,在学习中有什么问题或者想法,请加入机器学习群,大家一起讨论,共同进步。




什么是数据挖掘?你怎么看。







每周一书


1利用Python进行数据分析


2深度学习





课程视频点击                                         


↓↓↓



浏览 87
点赞
评论
收藏
分享

手机扫一扫分享

分享
举报
评论
图片
表情
推荐
点赞
评论
收藏
分享

手机扫一扫分享

分享
举报