《动手学深度学习》中文版2.0beta版发布!

NLP从入门到放弃

共 1118字,需浏览 3分钟

 ·

2021-12-11 23:00

  大家好,我是DASOU。

昨天在刷沐神B站动态的时候,发现沐神说《动手深度学习》中文版2.0 beta 发布了。

具体网址链接在这里:https://zh.d2l.ai/

大家可以左下角跳转原文去看一下,印刷版我估计也快了。

看到这个消息,我第一时间就发朋友圈了,一些比较好的gitub项目或者资源一般都是随手放在朋友圈了。

想看朋友圈的朋友,搜【dasounlp】加我微信。

其实这个中文版本我记得之前就可以用了,只不过翻译的进度比较慢,现在说是2.0 beta可能是整个80%都已经中文翻译完成了。

我看了一眼,应该还有推荐系统和GAN网络没有翻译过来。

不过沐神说,后面还会继续更新的。

我把贡献者写的一些主要改进搬过来给大家看看,原网址在:

https://zhuanlan.zhihu.com/p/442988686

主要改进

  • 丰富并修订了第一版第十章“自然语言处理”内容,并分为“自然语言处理:预训练”和“自然语言处理:应用”两章,添加了“BERT”和“自然语言推断”的相关内容;
  • 丰富并修订第一版“附录内容”内容,并调整为第十六章;
  • 更新全书内容与英文版0.17.1保持一致。

详细改进

《动手学深度学习》2.0.0-beta0版较2.0.0-alpha2版增加了23个小节:
  • 第14章:自然语言处理:预训练
    • 14.1. 词嵌入(Word2vec)
    • 14.2. 近似训练
    • 14.3. 用于预训练词嵌入的数据集
    • 14.4. 预训练word2vec
    • 14.5. 全局向量的词嵌入(GloVe)
    • 14.6. 子词嵌入
    • 14.7. 词的相似性和类比任务
    • 14.8. 来自Transformer的双向编码器表示(BERT)
    • 14.9. 用于预训练BERT的数据集
    • 14.10. 预训练BERT
  • 第15章:自然语言处理:应用
    • 15.1. 情感分析及数据集
    • 15.2. 情感分析:使用递归神经网络
    • 15.3. 情感分析:使用卷积神经网络
    • 15.4. 自然语言推断与数据集
    • 15.5. 自然语言推断:使用注意力
    • 15.6. 针对序列级和词元级应用程序微调BERT
    • 15.7. 自然语言推断:微调BERT
  • 第16章:(附录)深度学习工具
    • 16.1. 使用Jupyter Notebooks
    • 16.2. 使用Amazon SageMaker
    • 16.3. 使用Amazon EC2实例
    • 16.4. 选择服务器和GPU
    • 16.5. 为本书做贡献
    • 16.6. d2l API 文档
浏览 117
点赞
评论
收藏
分享

手机扫一扫分享

分享
举报
评论
图片
表情
推荐
点赞
评论
收藏
分享

手机扫一扫分享

分享
举报