论文/代码速递2022.11.18!

AI算法与图像处理

共 1869字,需浏览 4分钟

 ·

2022-11-24 22:55


强烈推荐:2000核时免费领,立刻开启云上高性能计算 ☞,注册即送200元计算资源,https://www.bkunyun.com/wap/console?source=bkykolaistudy
当服务器有可视化界面,直接起飞!

整理:AI算法与图像处理
CVPR2022论文和代码整理:https://github.com/DWCTOD/CVPR2022-Papers-with-Code-Demo
ECCV2022论文和代码整理:https://github.com/DWCTOD/ECCV2022-Papers-with-Code-Demo
欢迎关注公众号 AI算法与图像处理,获取更多干货:


大家好,  最近正在优化每周分享的CVPR$ECCV 2022论文, 目前考虑按照不同类别去分类,方便不同方向的小伙伴挑选自己感兴趣的论文哈
欢迎大家留言其他想法,  合适的话会采纳哈! 求个三连支持一波哈

建了一个知识星球,计划不定期分享最新的成果和资源!感兴趣可以扫描体验,另外还有50个一年免费体验名额,可以添加微信nvshenj125 申请。

最新成果demo展示:

ECCV2022|AdaNeRF:自适应采样用于神经辐射场实时渲染!代码开源

标题:AdaNeRF: Adaptive Sampling for Real-time Rendering of Neural Radiance Fields

论文:https://arxiv.org/pdf/2207.10312.pdf

代码:https://github.com/thomasneff/AdaNeRF

摘要: 

最近,通过直接从稀疏观测中学习神经辐射场,新的视图合成发生了革命性的变化。然而,由于体绘制方程的精确求积需要每条射线的大量样本,因此使用这种新范式绘制图像的速度很慢。先前的工作主要集中在加快与每个采样点相关联的网络评估,例如,通过将辐射值缓存到显式空间数据结构中,但这是以牺牲模型紧凑性为代价的。在本文中,我们提出了一种新的双网络架构,通过学习如何最佳地减少所需采样点的数量,该架构采用正交方向。为此,我们将我们的网络拆分为一个采样和着色网络,这些网络是联合训练的。我们的训练方案沿每条射线采用固定的样本位置,并在整个训练过程中逐步引入稀疏性,以实现高质量,即使在低样本数下也是如此。在用目标样本数进行微调后,可以实时呈现得到的紧凑神经表示。我们的实验表明,我们的方法在质量和帧速率方面优于并发紧凑神经表示,并且与高效混合表示性能相当


最新论文整理


   ECCV2022

Updated on : 18 Nov 2022

total number : 1

InternVideo-Ego4D: A Pack of Champion Solutions to Ego4D Challenges

  • 论文/Paper: http://arxiv.org/pdf/2211.09529

  • 代码/Code: https://github.com/OpenGVLab/ego4d-eccv2022-solutions

    CVPR2022


   NeurIPS


Updated on : 18 Nov 2022

total number : 3

Language Conditioned Spatial Relation Reasoning for 3D Object Grounding

  • 论文/Paper: http://arxiv.org/pdf/2211.09646

  • 代码/Code: None

I see you: A Vehicle-Pedestrian Interaction Dataset from Traffic Surveillance Cameras

  • 论文/Paper: http://arxiv.org/pdf/2211.09342

  • 代码/Code: https://github.com/hvzzzz/Vehicle_Trajectory_Dataset

A Survey on Evaluation Metrics for Synthetic Material Micro-Structure Images from Generative Models

  • 论文/Paper: http://arxiv.org/pdf/2211.09727

  • 代码/Code: None



浏览 13
点赞
评论
收藏
分享

手机扫一扫分享

分享
举报
评论
图片
表情
推荐
点赞
评论
收藏
分享

手机扫一扫分享

分享
举报