NLP 面无不过 更新版

共 15639字,需浏览 32分钟

 ·

2024-05-07 08:00

介绍:本项目是作者们根据个人面试和经验总结出的自然语言处理(NLP)面试准备的学习笔记与资料,该资料目前包含 自然语言处理各领域的 面试题积累。


Github 地址:https://github.com/km1994/NLP-Interview-Notes


NLP 面无不过 面试交流群 (注:人满 可 添加 小编wx:yzyykm666 加群!)

四、NLP 学习算法 常见面试篇

4.1 信息抽取 常见面试篇

4.1.1 命名实体识别 常见面试篇

  • 隐马尔科夫算法 HMM 常见面试篇

    • 一、基础信息 介绍篇

      • 1.1 什么是概率图模型?

      • 1.2 什么是 随机场?

    • 二、马尔可夫过程 介绍篇

      • 2.1 什么是 马尔可夫过程?

      • 2.2 马尔可夫过程 的核心思想 是什么?

    • 三、隐马尔科夫算法 篇


      • ...


点击查看答案
  • 最大熵马尔科夫模型 MEMM 常见面试篇

    • 四、最大熵马尔科夫模型(MEMM)篇

      • 4.1 最大熵马尔科夫模型(MEMM)动机篇

        • 4.1.1 HMM 存在 什么问题?

      • 4.2 最大熵马尔科夫模型(MEMM)介绍篇

        • 4.2.1 最大熵马尔科夫模型(MEMM) 是什么样?

        • 4.2.2 最大熵马尔科夫模型(MEMM) 如何解决 HMM 问题?

      • 4.3 最大熵马尔科夫模型(MEMM)问题篇

点击查看答案
  • 条件随机场(CRF) 常见面试篇

    • 五、条件随机场(CRF)篇

      • 5.1 CRF 动机篇

        • 5.1.1 HMM 和 MEMM 存在什么问题?

      • 5.2 CRF 介绍篇

        • 5.2.1 什么是 CRF?

        • 5.2.2 CRF 的 主要思想是什么?


        ...

点击查看答案
  • DNN-CRF 常见面试篇

    • 一、基本信息

      • 1.1 命名实体识别 评价指标 是什么?

    • 二、传统的命名实体识别方法

      • 2.1 基于规则的命名实体识别方法是什么?

      • 2.2 基于无监督学习的命名实体识别方法是什么?

      • 2.3 基于特征的监督学习的命名实体识别方法是什么?

    • 三、基于深度学习的命名实体识别方法

      • ...

        点击查看答案
        • 中文领域 NER 常见面试篇

          • 一、动机篇

            • 1.1 中文命名实体识别 与 英文命名实体识别的区别?

          • 二、词汇增强篇

            • 2.1 什么是 词汇增强?

            • 2.2 为什么说 「词汇增强」 方法对于中文 NER 任务有效呢?

            • 2.3 词汇增强 方法有哪些?

            • 2.4 Dynamic Architecture


              ...

        点击查看答案
        • 命名实体识别 trick 常见面试篇

          • trick 1:领域词典匹配

          • trick 2:规则抽取

          • trick 3:词向量选取:词向量 or 字向量?

          • trick 4:特征提取器 如何选择?

          • trick 5:专有名称 怎么 处理?

          • trick 6:标注数据 不足怎么处理?

          • trick 7:嵌套命名实体识别怎么处理


            • ...


        点击查看答案

        4.1.2 关系抽取 常见面试篇

        • 关系抽取 常见面试篇

          • 一、动机篇

            • 1.1 什么是关系抽取?

            • 1.2 关系抽取技术有哪些类型?

            • 1.3 常见的关系抽取流程是怎么做的?

          • 二、经典关系抽取篇

            • 2.1 模板匹配方法是指什么?有什么优缺点?

            • 2.2 远监督关系抽取是指什么?它有什么优缺点?

            • 2.3 什么是关系重叠?复杂关系问题?

            • 2.4 联合抽取是什么?难点在哪里?

            • 2.5 联合抽取总体上有哪些方法?各有哪些缺点?


            • ...

        点击查看答案

        4.1.3 事件抽取 常见面试篇

        • 事件抽取 常见面试篇

          • 一、原理篇

            • 1.1 什么是事件?

            • 1.2 什么是事件抽取?

            • 1.3 ACE测评中事件抽取涉及的几个基本术语及任务是什么?

            • 1.4 事件抽取怎么发展的?

            • 1.5 事件抽取存在什么问题?

          • 二、基本任务篇


            • ...


        4.2 NLP 预训练算法 常见面试篇

        • 【关于TF-idf】那些你不知道的事

          • 一、one-hot 篇

            • 1.1 为什么有 one-hot ?

            • 1.2 one-hot 是什么?

            • 1.3 one-hot 有什么特点?

            • 1.4 one-hot 存在哪些问题?

          • 二、TF-IDF 篇


            • ...


        点击查看答案
        • 【关于word2vec】那些你不知道的事

          • 一、Wordvec 介绍篇

            • 1.1 Wordvec 指什么?

            • 1.2 Wordvec 中 CBOW 指什么?

            • 1.3 Wordvec 中 Skip-gram 指什么?

            • 1.4 CBOW vs Skip-gram 哪一个好?

          • 二、Wordvec 优化篇

            • 2.1 Word2vec 中 霍夫曼树 是什么?

            • 2.2 Word2vec 中 为什么要使用 霍夫曼树?


            • ...

        点击查看答案
        • 【关于FastText】那些你不知道的事

          • 一、fastText 动机篇

            • 1.1 word-level Model 是什么?

            • 1.2 word-level Model 存在什么问题?

            • 1.3 Character-Level Model 是什么?

            • 1.4 Character-Level Model 优点?

            • 1.5 Character-Level Model 存在问题?

            • 1.6 Character-Level Model 问题的解决方法?

          • 二、 词内的n-gram信息(subword n-gram information) 介绍篇

            • 2.1 引言

            • 2.2 fastText 是什么?


            • ...


        点击查看答案
        • 【关于Elmo】那些你不知道的事

          • 一、Elmo 动机篇

            • 1.1 为什么会有 Elmo?

          • 二、Elmo 介绍篇

            • 2.1 Elmo 的 特点?


            • ...

        点击查看答案

        4.3 Bert 常见面试篇

        • Bert 常见面试篇

          • 一、动机篇

            • 1.1 【演变史】one-hot 存在问题?

            • 1.2【演变史】wordvec 存在问题?

            • 1.3【演变史】fastText 存在问题?

            • 1.4【演变史】elmo 存在问题?

          • 二、Bert 篇

            • 2.1 Bert 介绍篇

              • 2.1.1【BERT】Bert 是什么?

              • 2.1.2【BERT】Bert 三个关键点?

            • 2.2 Bert 输入输出表征篇

              • 2.2.1 【BERT】Bert 输入输出表征长啥样?

            • 2.3 【BERT】Bert 预训练篇

              • 2.3.1 【BERT】Bert 预训练任务介绍

              • 2.3.2 【BERT】Bert 预训练任务 之 Masked LM 篇

                • 2.3.2.1 【BERT】 Bert 为什么需要预训练任务 Masked LM ?

                • 2.3.2.2 【BERT】 Bert 预训练任务 Masked LM 怎么做?


              ...

        点击查看答案
        • 【关于 Bert 源码解析I 之 主体篇】那些你不知道的事

        • 【关于 Bert 源码解析II 之 预训练篇】那些你不知道的事

        • 【关于 Bert 源码解析III 之 微调篇】那些你不知道的事

        • 【关于 Bert 源码解析IV 之 句向量生成篇】那些你不知道的事

        • 【关于 Bert 源码解析V 之 文本相似度篇】那些你不知道的事

        4.3.1 Bert 模型压缩 常见面试篇

        • Bert 模型压缩 常见面试篇

          • 一、Bert 模型压缩 动机篇

          • 二、Bert 模型压缩对比表

          • 三、 Bert 模型压缩方法介绍

            • 3.1 Bert 模型压缩方法 之 低秩因式分解&跨层参数共享

              • 3.1.1 什么是低秩因式分解?

              • 3.1.2 什么是跨层参数共享?

              • 3.1.3 ALBERT 所所用的方法?


            • ...


        点击查看答案

        4.3.2 Bert 模型系列 常见面试篇

        • 认识 XLNet 么?能不能讲一下?和 Bert 的 区别在哪里?

        • 认识 RoBERTa 么?能不能讲一下?和 Bert 的 区别在哪里?

        • 认识 SpanBERT 么?能不能讲一下?和 Bert 的 区别在哪里?

        • 认识 MASS 么?能不能讲一下?和 Bert 的 区别在哪里?

        点击查看答案

        4.4 文本分类 常见面试篇

        • 文本分类 常见面试篇

          • 一、 抽象命题

            • 1.1 分类任务有哪些类别?它们都有什么特征?

            • 1.2 文本分类任务相较于其他领域的分类任务有何不同之处?

            • 1.3 文本分类任务和文本领域的其他任务相比有何不同之处?

            • 1.4 文本分类的过程?

          • 二、数据预处理

            • 2.1 文本分类任务的数据预处理方法有哪些?

            • 2.2 你使用过哪些分词方法和工具?

            • 2.3 中文文本分词的方法?

            • 2.4 基于字符串匹配的分词方法的原理 是什么?

            • 2.5 统计语言模型如何应用于分词?N-gram最大概率分词?

            • 2.6 基于序列标注的分词方法 是什么?

            • 2.7 基于(Bi-)LSTM的词性标注 是什么?

            • 2.8 词干提取和词形还原有什么区别?

          • 三、特征提取

            • 3.1 (一个具体的)文本分类任务可以使用哪些特征?

            • 3.2 (对于西文文本)使用单词和使用字母作为特征相比,差异如何?

            • 3.3 能不能简单介绍下词袋模型?

            • 3.4 n-gram 篇

              • 3.4.1 什么是n元语法?为什么要用n-gram?

              • 3.4.2 n-gram算法的局限性是什么?

            • 3.5 主题建模篇

              • 3.5.1 介绍一下主题建模任务?

              • 3.5.2 主题建模的常用方法

              • 3.5.3 TF-IDF算法是做什么的?简单介绍下TF-IDF算法

              • 3.5.4 tf-idf高意味着什么?

              • 3.5.5 tf-idf的不足之处

            • 3.6 文本相似度篇

              • 3.6.1 如何计算两段文本之间的距离?

              • 3.6.2 什么是jaccard距离?

              • 3.6.3 Dice系数和Jaccard系数的区别?

              • 3.6.4 同样是编辑距离,莱文斯坦距离和汉明距离的区别在哪里?

              • 3.6.5 写一下计算编辑距离(莱温斯坦距离)的编程题吧?

          • 四、模型篇

            • 4.1 fastText 篇

              • 4.1.1 fastText的分类过程?

              • 4.1.2 fastText的优点?

            • 4.2 TextCNN 篇

              • 4.2.1 TextCNN进行文本分类的过程?

              • 4.2.2 TextCNN可以调整哪些参数?

              • 4.2.3 使用CNN作为文本分类器时,不同通道channels对应着文本的什么信息?

              • 4.2.4 TextCNN中卷积核的长与宽代表了什么?

              • 4.2.5 在TextCNN中的pooling操作与一般CNN的pooling操作有何不同?

              • 4.2.6 TextCNN的局限性?

            • 4.3 DPCNN 篇

              • 4.3.1 如何解决长文本分类任务?

              • 4.3.2 简单介绍DPCNN模型相较于TextCNN的改进?


            • ...

        点击查看答案
        • 文本分类 trick 常见面试篇

          • 一、文本分类数据预处理 如何做?

          • 二、文本分类 预训练模型 如何选择?

          • 三、文本分类 参数 如何优化?

          • 四、文本分类 有哪些棘手任务?

          • 五、文本分类 标签体系构建?

          • 六、文本分类 策略构建?

        点击查看答案
        • 用检索的方式做文本分类 常见面试篇

          • 为什么需要用检索的方式做文本分类?

          • 基于检索的方法做文本分类思路?

          • 检索的方法的召回库如何构建?

          • 检索的方法 的 训练阶段 如何做?

          • 检索的方法 的 预测阶段 如何做?

          • 用检索的方式做文本分类 方法 适用场景有哪些?

        点击查看答案

        4.5 文本匹配 常见面试篇

        • 文本匹配模型 ESIM 常见面试篇

          • 为什么需要 ESIM?

          • 介绍一下 ESIM 模型?

        点击查看答案
        • 语义相似度匹配任务中的 BERT 常见面试篇

          • 一、Sentence Pair Classification Task:使用 CLS

          • 二、cosine similairity

          • 三、长短文本的区别

          • 四、sentence/word embedding

          • 五、siamese network 方式

        点击查看答案

        4.6 问答系统 常见面试篇

        4.6.1 FAQ 检索式问答系统 常见面试篇

        • 一、动机

          • 1.1 问答系统的动机?

          • 1.2 问答系统 是什么?

        • 二、FAQ 检索式问答系统介绍篇

          • 2.1 FAQ 检索式问答系统 是 什么?

          • 2.2 query 匹配标准 QA 的核心是什么?

        • 三、FAQ 检索式问答系统 方案篇

          • 3.1 常用 方案有哪些?

          • 3.2 为什么 QQ 匹配比较常用?

            • 3.2.1 QQ 匹配的优点有哪些?

            • 3.2.2 QQ 匹配的语义空间是什么?

            • 3.2.3 QQ 匹配的语料的稳定性是什么?


            ...

        4.6.2 问答系统工具篇 常见面试篇

        • Faiss 常见面试篇

          • 一、动机篇

            • 1.1 传统的相似度算法所存在的问题?

          • 二、介绍篇

            • 2.1 什么是 Faiss ?

            • 2.2 Faiss 如何使用?

            • 2.3 Faiss原理与核心算法

          • 三、Faiss 实战篇

            • 3.1 Faiss 如何安装?


            • ...

        4.7 对话系统 常见面试篇

        • 对话系统 常见面试篇

          • 一、对话系统 介绍篇

            • 1.1 对话系统有哪几种?

            • 1.2 这几种对话系统的区别?

          • 二、多轮对话系统 介绍篇

            • 2.1 为什么要用 多轮对话系统?

            • 2.2 常见的多轮对话系统解决方案是什么?

          • 三、任务型对话系统 介绍篇

            • 3.1 什么是任务型对话系统?

            • 3.2 任务型对话系统的流程是怎么样?

            • 3.3 任务型对话系统 语言理解(SLU)篇

              • 3.3.1 什么是 语言理解(SLU)?

              • 3.3.2 语言理解(SLU)的输入输出是什么?

              • 3.3.3 语言理解(SLU)所使用的技术是什么?


            • ...


        点击查看答案
        • RASA 常见面试篇

        4.8 知识图谱 常见面试篇

        4.8.1 知识图谱 常见面试篇

        • 一、知识图谱简介

          • 1.1 引言

          • 1.2 什么是知识图谱呢?

            • 1.2.1 什么是图(Graph)呢?

            • 1.2.2 什么是 Schema 呢?

          • 1.3 知识图谱的类别有哪些?

          • 1.4 知识图谱的价值在哪呢?

        • 二、怎么构建知识图谱呢?

          • 2.1 知识图谱的数据来源于哪里?

          • 2.2 信息抽取的难点在哪里?

          • 2.3 构建知识图谱所涉及的技术?

          • 2.4、知识图谱的具体构建技术是什么?


            • ...


        • 三、知识图谱怎么存储?

        • 四、知识图谱可以做什么?

        点击查看答案

        4.8.2 KBQA 常见面试篇

        • 一、基于词典和规则的方法

          • 基于词典和规则的方法 实现 KBQA?

          • 基于词典和规则的方法 实现 KBQA 流程?

            ...

        点击查看答案

        4.8.3 Neo4j 常见面试篇

        • 一、Neo4J 介绍与安装

          • 1.1 引言

          • 1.2 Neo4J 怎么下载?

          • 1.3 Neo4J 怎么安装?

          • 1.4 Neo4J Web 界面 介绍

          • 1.5 Cypher查询语言是什么?

        • 二、Neo4J 增删查改篇


          • ...


        点击查看答案

        4.9 文本摘要 常见面试篇

        • 一、动机篇

          • 1.1 什么是文本摘要?

          • 1.2 文本摘要技术有哪些类型?

        • 二、抽取式摘要篇

          • ...

          4.10 文本纠错篇 常见面试篇

          • 一、介绍篇

            • 1.1 什么是文本纠错?

            • 1.2 常见的文本错误类型?

            • 1.3 文本纠错 常用方法?

          • 二、pipeline 方法 介绍篇


            • ...


          点击查看答案

          4.11 文本摘要 常见面试篇

          • 一、动机篇

            • 1.1 什么是文本摘要?

            • 1.2 文本摘要技术有哪些类型?

          • 二、抽取式摘要篇

            • 2.1 抽取式摘要是怎么做的?

              • 2.1.1 句子重要性评估算法有哪些?

              • 2.1.2 基于约束的摘要生成方法有哪些?

              • 2.1.3 TextTeaser算法是怎么抽取摘要的?

              • 2.1.4 TextRank算法是怎么抽取摘要的?

            • 2.2 抽取式摘要的可读性问题是什么?

          • 三、压缩式摘要篇

            • 3.1 压缩式摘要是怎么做的?


          • ...


          点击查看答案

          4.12 文本生成 常见面试篇

          • 生成模型的解码方法 常见面试篇

            • 什么是生成模型?

            • 介绍一下 基于搜索的解码方法?

            • 介绍一下 基于采样的解码方法?

          点击查看答案

          三、深度学习算法篇 常见面试篇

          • CNN 常见面试篇

            • 一、动机篇

            • 二、CNN 卷积层篇

              • 2.1 卷积层的本质是什么?

              • 2.2 CNN 卷积层与全连接层的联系?

              • 2.3 channel的含义是什么?

            • 三、CNN 池化层篇

              • 3.1 池化层针对区域是什么?

              • 3.2 池化层的种类有哪些?

              • 3.3 池化层的作用是什么?

              • 3.4 池化层 反向传播 是什么样的?

              • 3.5 mean pooling 池化层 反向传播 是什么样的?

              • 3.6 max pooling 池化层 反向传播 是什么样的?

            • 四、CNN 整体篇

              • 4.1 CNN 的流程是什么?

              • 4.2 CNN 的特点是什么?

              • 4.3 卷积神经网络为什么会具有平移不变性?

              • 4.4 卷积神经网络中im2col是如何实现的?

              • 4.5 CNN 的局限性是什么?

            • 五、Iterated Dilated CNN 篇

              • 5.1 什么是 Dilated CNN 空洞卷积?

              • 5.2 什么是 Iterated Dilated CNN?

            • 六、反卷积 篇

              • 6.1 解释反卷积的原理和用途?

          点击查看答案
          • RNN 常见面试篇

            • 一、RNN 篇

              • 1.2 为什么需要 RNN?

              • 1.2 RNN 结构是怎么样的?

              • 1.3 RNN 前向计算公式?

              • 1.4 RNN 存在什么问题?

            • 二、长短时记忆网络(Long Short Term Memory Network, LSTM) 篇

              • 2.1 为什么 需要 LSTM?

              • 2.2 LSTM 的结构是怎么样的?

              • 2.3 LSTM 如何缓解 RNN 梯度消失和梯度爆炸问题?

              • 2.3 LSTM 的流程是怎么样的?

              • 2.4 LSTM 中激活函数区别?

              • 2.5 LSTM的复杂度?

              • 2.6 LSTM 存在什么问题?

            • 三、GRU (Gated Recurrent Unit)

              • 3.1 为什么 需要 GRU?

              • 3.2 GRU 的结构是怎么样的?

              • 3.3 GRU 的前向计算?

              • 3.4 GRU 与其他 RNN系列模型的区别?

            • 四、RNN系列模型篇

              • 4.1 RNN系列模型 有什么特点?

          点击查看答案
          • Attention 常见面试篇

            • 一、seq2seq 篇

              • 1.1 seq2seq (Encoder-Decoder)是什么?

              • 1.2 seq2seq 中 的 Encoder 怎么样?

              • 1.3 seq2seq 中 的 Decoder 怎么样?

              • 1.4 在 数学角度上 的 seq2seq ,你知道么?

              • 1.5 seq2seq 存在 什么 问题?

            • 二、Attention 篇

              • 2.1 什么是 Attention?

              • 2.2 为什么引入 Attention机制?

              • 2.3 Attention 有什么作用?

              • 2.4 Attention 流程是怎么样?

                • 步骤一 执行encoder (与 seq2seq 一致)

                • 步骤二 计算对齐系数 a

                • 步骤三 计算上下文语义向量 C

                • 步骤四 更新decoder状态

                • 步骤五 计算输出预测词

              • 2.5 Attention 的应用领域有哪些?

            • 三、Attention 变体篇

              • 3.1 Soft Attention 是什么?

              • 3.2 Hard Attention 是什么?

              • 3.3 Global Attention 是什么?

              • 3.4 Local Attention 是什么?

              • 3.5 self-attention 是什么?

          点击查看答案
          • 生成对抗网络 GAN 常见面试篇

            • 一、动机

            • 二、介绍篇

              • 2.1 GAN 的基本思想

              • 2.2 GAN 基本介绍

                • 2.2.1 GAN 的基本结构

                • 2.2.2 GAN 的基本思想

            • 三、训练篇

              • 3.1 生成器介绍

              • 3.2 判别器介绍

              • 3.3 训练过程

              • 3.4 训练所涉及相关理论基础

            • 四、总结

          点击查看答案

          3.1 Transformer 常见面试篇

          • Transformer 常见面试篇

            • 一、动机篇

              • 1.1 为什么要有 Transformer?

              • 1.2 Transformer 作用是什么?

            • 二、整体结构篇

              • 2.1 Transformer 整体结构是怎么样?

              • 2.2 Transformer-encoder 结构怎么样?

              • 2.3 Transformer-decoder 结构怎么样?

            • 三、模块篇

              • 3.1 self-attention 模块

                • 3.1.1 传统 attention 是什么?

                • 3.1.2 为什么 会有self-attention?

                • 3.1.3 self-attention 的核心思想是什么?

                • 3.1.4 self-attention 的目的是什么?

                • 3.1.5 self-attention 的怎么计算的?

                • 3.1.6 self-attention 为什么Q和K使用不同的权重矩阵生成,为何不能使用同一个值进行自身的点乘?

                • 3.1.7 为什么采用点积模型的 self-attention 而不采用加性模型?

                • 3.1.8 Transformer 中在计算 self-attention 时为什么要除以 �d

                • 3.1.9 self-attention 如何解决长距离依赖问题?

                • 3.1.10 self-attention 如何并行化?

              • 3.2 multi-head attention 模块

                • 3.2.1 multi-head attention 的思路是什么样?

                • 3.2.2 multi-head attention 的步骤是什么样?

                • 3.2.3 Transformer为何使用多头注意力机制?(为什么不使用一个头)

                • 3.2.4 为什么在进行多头注意力的时候需要对每个head进行降维?

                • 3.2.5 multi-head attention 代码介绍

              • 3.3 位置编码(Position encoding)模块

                • 3.3.1 为什么要 加入 位置编码(Position encoding) ?

                • 3.3.2 位置编码(Position encoding)的思路是什么 ?

                • 3.3.3 位置编码(Position encoding)的作用是什么 ?

                • 3.3.4 位置编码(Position encoding)的步骤是什么 ?

                • 3.3.5 Position encoding为什么选择相加而不是拼接呢?

                • 3.3.6 Position encoding和 Position embedding的区别?

                • 3.3.7 为何17年提出Transformer时采用的是 Position Encoder 而不是Position Embedding?而Bert却采用的是 Position Embedding ?

                • 3.3.8 位置编码(Position encoding)的代码介绍

              • 3.4 残差模块模块

                • 3.4.1 为什么要 加入 残差模块?

              • 3.5 Layer normalization 模块

                • 3.5.1 为什么要 加入 Layer normalization 模块?

                • 3.5.2 Layer normalization 模块的是什么?

                • 3.5.3 Batch normalization 和 Layer normalization 的区别?

                • 3.5.4 Transformer 中为什么要舍弃 Batch normalization 改用 Layer normalization 呢?

                • 3.5.5 Layer normalization 模块代码介绍

              • 3.6 Mask 模块

                • 3.6.1 什么是 Mask?

                • 3.6.2 Transformer 中用到 几种 Mask?

                • 3.6.3 能不能介绍一下 Transformer 中用到几种 Mask?

          点击查看答案
          • 【关于 Transformer 问题及改进】那些你不知道的事

            • 一、Transformer 问题篇

              • 1.1 既然 Transformer 怎么牛逼,是否还存在一些问题?

            • 二、每个问题的解决方法是什么?

              • 2.1 问题一:Transformer 不能很好的处理超长输入问题

                • 2.1.1 Transformer 固定了句子长度?

                • 2.1.2 Transformer 固定了句子长度 的目的是什么?

                • 2.1.3 Transformer 针对该问题的处理方法?

              • 2.2 问题二:Transformer 方向信息以及相对位置 的 缺失 问题

              • 2.3 问题三:缺少Recurrent Inductive Bias

              • 问题四:问题四:Transformer是非图灵完备的:非图灵完备通俗的理解,就是无法解决所有的问题

              • 问题五:transformer缺少conditional computation;

              • 问题六:transformer 时间复杂度 和 空间复杂度 过大问题;

          五、NLP 技巧面

          5.1 少样本问题面

          5.1.1 数据增强(EDA) 面试篇

          • 一、动机篇

            • 1.1 什么是 数据增强?

            • 1.2 为什么需要 数据增强?

          • 二、常见的数据增强方法篇

            • 2.1 词汇替换篇

              • 2.1.1 什么是基于词典的替换方法?

              • 2.1.2 什么是基于词向量的替换方法?

              • 2.1.3 什么是基于 MLM 的替换方法?

              • 2.1.4 什么是基于 TF-IDF 的词替换?

            • 2.2 词汇插入篇

              • 2.2.1 什么是随机插入法?

            • 2.3 词汇交换篇

              • 2.3.1 什么是随机交换法?

            • 2.4 词汇删除篇

              • 2.4.1 什么是随机删除法?

            • 2.5 回译篇

              • 2.5.1 什么是回译法?

            • 2.6 交叉增强篇

              • 2.6.1 什么是 交叉增强篇

            • 2.7 语法树篇

              • 2.7.1 什么是语法树操作?

            • 2.8 对抗增强篇

              • 2.8.1 什么是对抗增强?

          点击查看答案

          5.1.2 主动学习 面试篇

          • 一、动机篇

            • 1.1 主动学习是什么?

            • 1.2 为什么需要主动学习?

          • 二、主动学习篇

            • 2.1 主动学习的思路是什么?

            • 2.2 主动学习方法 的价值点在哪里?

          • 三、样本选取策略篇

            • 3.1 以未标记样本的获取方式的差别进行划分

            • 3.2 测试集内选取“信息”量最大的数据标记

              • 3.2.1 测试集内选取“信息”量最大的数据标记

              • 3.2.2 依赖不确定度的样本选取策略(Uncertainty Sampling, US)

              • 3.2.3 基于委员会查询的方法(Query-By-Committee,QBC)

          点击查看答案

          5.1.3 数据增强 之 对抗训练 面试篇

          • 一、介绍篇

            • 1.1 什么是 对抗训练 ?

            • 1.2 为什么 对抗训练 能够 提高模型效果?

            • 1.3 对抗训练 有什么特点?

            • 1.4 对抗训练 的作用?

          • 二、概念篇

            • 2.1 对抗训练的基本概念?

            • 2.2 如何计算扰动?

            • 2.3 如何优化?

          • 三、实战篇

            • 3.1 NLP 中经典对抗训练 之 Fast Gradient Method(FGM)

            • 3.2 NLP 中经典对抗训练 之 Projected Gradient Descent(PGD)

          点击查看答案

          5.2 “脏数据”处理 面试篇

          • 一、动机

            • 1.1 何为“脏数据”?

            • 1.2 “脏数据” 会带来什么后果?

          • 二、“脏数据” 处理篇

            • 2.1 “脏数据” 怎么处理呢?

            • 2.2 置信学习方法篇

              • 2.2.1 什么是 置信学习方法?

              • 2.2.2 置信学习方法 优点?

              • 2.2.3 置信学习方法 怎么做?

              • 2.2.4 置信学习方法 怎么用?有什么开源框架?

              • 2.2.5 置信学习方法 的工作原理?

          点击查看答案
          点击原文查看【所有内容】

          浏览 16
          点赞
          评论
          收藏
          分享

          手机扫一扫分享

          分享
          举报
          评论
          图片
          表情
          推荐
          点赞
          评论
          收藏
          分享

          手机扫一扫分享

          分享
          举报