《动手学深度学习》中文版2.0beta版发布!
NLP从入门到放弃
共 1118字,需浏览 3分钟
·
2021-12-11 23:00
大家好,我是DASOU。
昨天在刷沐神B站动态的时候,发现沐神说《动手深度学习》中文版2.0 beta 发布了。
具体网址链接在这里:https://zh.d2l.ai/
大家可以左下角跳转原文去看一下,印刷版我估计也快了。
看到这个消息,我第一时间就发朋友圈了,一些比较好的gitub项目或者资源一般都是随手放在朋友圈了。
想看朋友圈的朋友,搜【dasounlp】加我微信。
其实这个中文版本我记得之前就可以用了,只不过翻译的进度比较慢,现在说是2.0 beta可能是整个80%都已经中文翻译完成了。
我看了一眼,应该还有推荐系统和GAN网络没有翻译过来。
不过沐神说,后面还会继续更新的。
我把贡献者写的一些主要改进搬过来给大家看看,原网址在:
https://zhuanlan.zhihu.com/p/442988686
主要改进
丰富并修订了第一版第十章“自然语言处理”内容,并分为“自然语言处理:预训练”和“自然语言处理:应用”两章,添加了“BERT”和“自然语言推断”的相关内容; 丰富并修订第一版“附录内容”内容,并调整为第十六章; 更新全书内容与英文版0.17.1保持一致。
详细改进
第14章:自然语言处理:预训练 14.1. 词嵌入(Word2vec) 14.2. 近似训练 14.3. 用于预训练词嵌入的数据集 14.4. 预训练word2vec 14.5. 全局向量的词嵌入(GloVe) 14.6. 子词嵌入 14.7. 词的相似性和类比任务 14.8. 来自Transformer的双向编码器表示(BERT) 14.9. 用于预训练BERT的数据集 14.10. 预训练BERT 第15章:自然语言处理:应用 15.1. 情感分析及数据集 15.2. 情感分析:使用递归神经网络 15.3. 情感分析:使用卷积神经网络 15.4. 自然语言推断与数据集 15.5. 自然语言推断:使用注意力 15.6. 针对序列级和词元级应用程序微调BERT 15.7. 自然语言推断:微调BERT 第16章:(附录)深度学习工具 16.1. 使用Jupyter Notebooks 16.2. 使用Amazon SageMaker 16.3. 使用Amazon EC2实例 16.4. 选择服务器和GPU 16.5. 为本书做贡献 16.6. d2l API 文档
评论