斯坦福大学《自然语言理解》公开课来了,视频代码PPT都有
↓↓↓点击关注,回复资料,10个G的惊喜
先屯一波「粮」,闲暇时再给自己充个电。
此前斯坦福大学已经免费公开了好多精品课程,近日,其免费课程资源又来了。
课程名字为《CS224U:自然语言理解》,这是一门系列课程,从 2012 年开始,到现在已经有 10 年了,课程每年都会更新内容。今年的课程已经向所有人开放,免费提供课程材料,包括 notebooks、讲座视频、幻灯片,还会给学生留家庭作业。
课程主页:https://web.stanford.edu/class/cs224u/
在介绍该课程之前,我们先来简单了解一下什么是自然语言理解。
自然语言理解指的是使电脑或机器理解人类语言的相关技术。自然语言理解是自然语言处理(NLP)的子任务,也是最为重要的任务。只有让机器理解人类语言,才能使其进行处理,甚至完成生成任务。
和 NLP 类似,NLU 的发展也经历了从模式匹配、专家系统、机器学习到深度学习的发展过程。其历史可以概括为以下五个阶段:
1960 年代:小规则集的模式匹配;
1970-1980 年代:基于大量的语言学知识、逻辑驱动的基础系统,应用非常少;
1990 年代中期:NLP 领域迎来统计学革命,NLU 式微;
2000 年代后期:NLU 重回舞台,混合了现代和过去几十年的技术;
2010 年代中期:深度学习完全把持 NLU,如 LSTM、seq2seq 等。
课程大纲
以下就是主要的课程主题了,该课程从今年 3 月份开始到 6 月份结束,囊括了自然语言理解的方方面面。每一个课程主题又会引出各种话题扩展,通过前沿论文进行讲解。该课程还提供了特别活动,允许学生与资深学者进行对话。每节课程结束,学生都有相应的作业要完成。
学生可以通过视频在线学习,该课程会提供相应的 PPT、YouTube 视频、Python notebook,资料非常齐全。
总结来说,该课程主要分为四部分内容,包括:
向量空间模型
监督情绪分析
语言理解、OpenQA 与检索
分析方法
例如在向量空间模型这一部分,讲师提供了 6 篇相关论文作为补充材料进行讲解:
本部分课程结束时,学生需要完成作业,方便巩固知识点。
在讲师视频讲解中,课程会提供本节教学内容以及相应的幻灯片,幻灯片简单形象,学生不用担心自己学不会。
此外课程还通过 Notebook 提供相应的代码。
课程主讲人
课程主讲人有 8 位。第一位是来自斯坦福大学的教授兼语言学系主任 Christopher Potts,此外,他还是斯坦福大学 HAI 学院的教授,专门研究人工智能系统的自然语言处理。
讲师团队其他人也全部来自斯坦福大学,包括计算机科学硕士研究生 Sterling Alic;计算与数学工程硕士研究生 Aasavari Kakne;CS 博士 Omar Khattab;计算机科学硕士研究生 David Lim;计算机科学硕士研究生 Manan Rai;本科生 Kavita Selva;计算机科学硕士研究生 Dhara Yu。
如下展示了所有课程大纲,包括各种子话题与学习资源。在课程主页中,该大纲链接了对应的文本或代码,其中额外教程通过 Jupyter Notebook 展示、课程主题通过课件展示、参考论文则直接链接到了 PDF。