StyleGAN-NADA:CLIP + StyleGAN
机器学习与生成对抗网络
共 3056字,需浏览 7分钟
· 2021-09-07
点击上方“机器学习与生成对抗网络”,关注星标
获取有趣、好玩的前沿干货!
点击上方“机器学习与生成对抗网络”,关注星标
获取有趣、好玩的前沿干货!
来源:GitHub 编辑:LRS 文章:新智元
【新智元导读】零样本的风格迁移听说过没有?英伟达一个实习生小哥集文本CLIP和图像生成StyleGAN于一身,只需要输入几个单词就可以完成你想要的风格迁移效果!再也不用为了风格迁移找数据啦!
参考资料:
https://stylegan-nada.github.io/
猜您喜欢:
CVPR 2021 | GAN的说话人驱动、3D人脸论文汇总
附下载 |《TensorFlow 2.0 深度学习算法实战》
评论
精度最高降幅60%!SOTA只是假象?CVPR2024 Highlight为你揭示CLIP和LLaVA-Next等模型“骗局”
作者丨派派星来源丨CVHub编辑丨极市平台导读 这篇论文提出了利用diffusion model作为data source来测评模型鲁棒性。提出的ImageNet-D数据集有效地降低state-of-art模型的测试准确率,降低幅度最高达60%,其中便包括了 CLIP,MiniGPT-4和
AI算法与图像处理
10