【关于Bert】 那些的你不知道的事

共 2557字,需浏览 6分钟

 ·

2021-02-11 06:00

作者:杨夕

论文链接:https://arxiv.org/pdf/1810.04805.pdf

代码链接:https://github.com/google-research/bert

【注:手机阅读可能图片打不开!!!】


引言

本博客 主要 是本人在学习 Bert 时的所遇、所思、所解,通过以 十二连弹 的方式帮助大家更好的理解 该问题。

十二连弹

  1. 【演变史】one-hot 是什么及所存在问题?

  2. 【演变史】word2vec 是什么及所存在问题?

  3. 【演变史】fastText 是什么及所存在问题?

  4. 【演变史】elmo 是什么及所存在问题?

  5. 【BERT】Bert 是什么?

  6. 【BERT】Bert 三个关键点?

  7. 【BERT】Bert 输入表征长啥样?

  8. 【BERT】Bert 预训练任务?

  9. 【BERT】Bert 预训练任务 Masked LM 怎么做?

  10. 【BERT】Bert 预训练任务 Next Sentence Prediction 怎么做?

  11. 【BERT】如何 fine-turning?

  12. 【对比】多义词问题及解决方法?

问题解答

【演变史】one-hot 是什么及所存在问题?

  • one-hot:

    • 介绍:

      • 用一个很长的向量来表示一个词,向量长度为词典的大小N,每个向量只有一个维度为1,其余维度全部为0,为1的位置表示该词语在词典的位置。

    • 特点:

      • 维度长:向量的维度为 词典大小

      • 一一其零:每个向量只有一个维度为1,其余维度全部为0,为1的位置表示该词语在词典的位置

    • 问题:

      • 维度灾难:容易受维数灾难的困扰,每个词语的维度就是语料库字典的长度;

      • 离散、稀疏问题:因为 one-Hot 中,句子向量,如果词出现则为1,没出现则为0,但是由于维度远大于句子长度,所以句子中的1远小于0的个数;

      • 维度鸿沟问题:词语的编码往往是随机的,导致不能很好地刻画词与词之间的相似性。


【演变史】wordvec 是什么及所存在问题?

  • 双剑客

    • CBOW vs Skip-gram

  • CBOW

    • 思想:用周围词预测中心词

  • Skip-gram

    • 思想:用中心词预测周围词

  • CBOW vs Skip-gram 哪一个好?

    • CBOW 可以理解为 一个老师教多个学生;(高等教育)

    • Skip-gram 可以理解为 一个学生被多个老师教;(补习班)

    • 那问题来了?

      • 最后 哪个学生 成绩 会更好?

  • 存在问题:

    • 因为 word2vec 为静态方式,即训练好后,每个词表达固定;

    • 多义词问题

【演变史】fastText 是什么及所存在问题?

【演变史】elmo 是什么及所存在问题?

【BERT】Bert 是什么?

BERT(Bidirectional Encoder Representations from Transformers)是一种Transformer的双向编码器,旨在通过在左右上下文中共有的条件计算来预先训练来自无标号文本的深度双向表示。因此,经过预先训练的BERT模型只需一个额外的输出层就可以进行微调,从而为各种自然语言处理任务生成最新模型。

这个也是我们常说的 【预训练】+【微调】

【BERT】Bert 三个关键点?

  • 基于 transformer 结构

  • 大量语料预训练:

    • 介绍:在包含整个维基百科的无标签号文本的大语料库中(足足有25亿字!) 和图书语料库(有8亿字)中进行预训练;

    • 优点:大语料 能够 覆盖 更多 的 信息;

  • 双向模型:

    • BERT是一个“深度双向”的模型。双向意味着BERT在训练阶段从所选文本的左右上下文中汲取信息

    • 举例:



【BERT】Bert 输入输出表征长啥样?

  • input 组成:

    • Token embedding 字向量: BERT模型通过查询字向量表将文本中的每个字转换为一维向量,作为模型输入;

    • Segment embedding 文本向量: 该向量的取值在模型训练过程中自动学习,用于刻画文本的全局语义信息,并与单字/词的语义信息相融合;

    • Position embedding 位置向量:由于出现在文本不同位置的字/词所携带的语义信息存在差异(比如:“我爱你”和“你爱我”),因此,BERT模型对不同位置的字/词分别附加一个不同的向量以作区分

  • output 组成:输入各字对应的融合全文语义信息后的向量表示

【BERT】Bert 预训练任务?

  • 预训练 包含 两个 Task:

    • Task 1:Masked LM

    • Task 2:Next Sentence Prediction

【BERT】Bert 预训练任务 Masked LM 怎么做?

  • 动机:

    • 双向模型 由于 可以分别 从左到右 和 从右到左 训练,使得 每个词 都能 通过多层 上下文 “看到自己”;

  • 方法:Masked LM

  • 做法:

    • s1:随机遮蔽输入词块的某些部分;

    • s2:仅预测那些被遮蔽词块;

    • s3:被遮盖的标记对应的最终的隐藏向量被当作softmax的关于该词的一个输出,和其他标准语言模型中相同



【BERT】Bert 预训练任务 Next Sentence Prediction 怎么做?

【BERT】如何 fine-turning?

【BERT】BERT的两个预训练任务对应的损失函数是什么(用公式形式展示)?

  • Bert 损失函数组成:

    • 第一部分是来自 Mask-LM 的单词级别分类任务;

    • 另一部分是句子级别的分类任务;

  • 优点:通过这两个任务的联合学习,可以使得 BERT 学习到的表征既有 token 级别信息,同时也包含了句子级别的语义信息。

  • 损失函数

注:θ:BERT 中 Encoder 部分的参数;θ1:是 Mask-LM 任务中在 Encoder 上所接的输出层中的参数;θ2:是句子预测任务中在 Encoder 接上的分类器参数;

  • 在第一部分的损失函数中,如果被 mask 的词集合为 M,因为它是一个词典大小 |V| 上的多分类问题,那么具体说来有:

  • 在第一部分的损失函数中,在句子预测任务中,也是一个分类问题的损失函数:

  • 两个任务联合学习的损失函数是:

【对比】多义词问题及解决方法?

参考

  1. CS224n

  2. 关于BERT的若干问题整理记录


    



浏览 94
点赞
评论
收藏
分享

手机扫一扫分享

分享
举报
评论
图片
表情
推荐
点赞
评论
收藏
分享

手机扫一扫分享

分享
举报