Transformer在CV界火的原因是?
新机器视觉
共 9579字,需浏览 20分钟
·
2021-06-17 15:00
本文转自'AI科技评论' 编译 | Don、青暮 侵删
为什么Transformers模型在NLP自然语言处理任务中能够力压群雄,变成SOTA模型的必备组件之一。 Transformers模型的计算原理。 为什么说Transformers是对CNN的当头棒喝,Transformers是怎么针对CNN的各种局限性进行补全的。 计算机视觉领域的最新模型是如何应用Transformers提升自己的。
长期依赖和计算效率之间的权衡取舍
Transformers横空出世
卷积归纳偏差
由于 CNN 权重共享机制,卷积层所提取的特征便具有平移不变性,它们对特征的全局位置不感冒,而只在乎这些决定性的特征是否存在。 由于卷积算子的性质,所以卷积的特征图具有局部敏感性,也就是每次卷积操作只会考虑原始数据的一小部分的局部信息。
计算机视觉领域中的Transformers
位置编码
结论
End
声明:部分内容来源于网络,仅供读者学术交流之目的,文章版权归原作者所有。如有不妥,请联系删除。
评论