超越所有微调方法,参数量大幅减少,康奈尔大学等提出视觉prompt新方法
数据派THU
共 3566字,需浏览 8分钟
· 2022-05-18
来源:机器之心 本文约2000字,建议阅读5分钟
一种优化 Transformer 的有效方案,在只添加少量参数的情况下,对下游任务有极大的提升效果。
论文地址:https://arxiv.org/abs/2203.12119
VPT-Deep 在 4 个问题类别中的 3 个(24 个任务中的 20 个)上优于其他全部方法(表 1 (a)),同时使用的模型参数总量显著减少(1.18× VS 24.02×)。可见,VPT 是一种很有前途的方法,可以在视觉任务中适应更大的 Transformer。 VPT-Deep 在所有任务组中都优于所有其他的参数调优方法(表 1 (b,c)),表明 VPT-deep 是存储受限环境中最好的微调策略。 虽然比 VPT-deep 略差一点,但 VPT-shallow 仍然比(表 1 (b))中的 head-oriented 方法性能更好。如果存储限制很严重,VPT-shallow 是部署多任务微调模型的合适选择。
评论