一周AI最火论文 | 给你的AI模型一张名片,谷歌发布MCT

大数据文摘

共 3432字,需浏览 7分钟

 ·

2020-08-04 20:59

大数据文摘出品
作者:Christopher Dossman
编译:Olivia、Joey、云舟

呜啦啦啦啦啦啦啦大家好,本周的AI Scholar Weekly栏目又和大家见面啦!
AI ScholarWeekly是AI领域的学术专栏,致力于为你带来最新潮、最全面、最深度的AI学术概览,一网打尽每周AI学术的前沿资讯。
每周更新,做AI科研,每周从这一篇开始就够啦!

本周关键词迁移学习、Deepfake、联合学习

本周最佳学术研究


Google AI用于AI模型透明化的Model Card Toolkit

Google最近发布了Model Card Toolkit(MCT),该工具包旨在为开发人员、监管人员和下游用户提供透明化的AI模型。Google表示,模型透明度在影响人们生活的各个领域(从医疗保健到个人理财再到就业)都发挥着重要作用。

Google过去公开发布了Model Cards来公开特定的模型架构,并为一些用例深入分析了有助于确保其最佳性能的因素。

MCT基于Google的Model Cards框架来报告模型的来源、使用情况和评估结果,并旨在通过收集必要信息和协助用户创建界面,来为第三方创建Model Cards带来便利。

Google正在共享MCT以简化所有ML从业人员Model Cards的创建过程。

Github传送门:
MCT:

https://github.com/tensorflow/model-card-toolkit;

MCT demo:
https://github.com/tensorflow/model-card-toolkit/blob/master/model_card_toolkit/documentation/examples/MLMD_Model_Card_Toolkit_Demo.ipynb.

原文:
https://ai.googleblog.com/2020/07/introducing-model-card-toolkit-for.html

内存有效的终端设备学习

这项工作提出了一种微小迁移学习方法(Tiny-Transfer-Learning(TinyTL))以实现内存有效的终端设备学习,旨在使预训练的模型在边缘设备新收集的数据上表现良好。

现有迁移学习方法固定了架构,基本上是通过细微调整权重以适合不同的目标数据集。不同的是,TinyTL固定了权重,通过调整特征提取器的架构并学习内存有效的精简残差模块和偏差,来适应不同的目标数据集 。因此,TinyTL不需要存储中间激活值,而这正是终端设备学习的主要存储瓶颈。

在基准迁移学习数据集上进行的大量实验一致表明了TinyTL的有效性和存储效率,这为高效的终端设备机器学习铺平了道路。

原文:
https://arxiv.org/abs/2007.11622v2

用于Deepfakes创建和检测的深度学习方法

Deepfake算法能伪造图像和视频而生成大量虚假内容,人眼无法将它们与真实的图像和视频区分开来,因此开发能够自动检测和评估数字视觉媒体真实性的算法至关重要。

本文对deepfakes的创建算法和最新文献中更为重要的deepfakes的检测方法进行了调查。研究人员针对挑战、研究趋势以及深层伪造技术的发展方向进行了详细讨论,可以为你在这个领域的工作和研究提供帮助。

通过回顾deepfakes的背景和最新的检测方法,本文提供了对该技术的全面概述并促进了新的更稳健的方法的开发,来应对日益严峻的伪造现象。

原文:
https://arxiv.org/abs/1909.11573v2

语音编码器表征的自我监督学习

自我监督学习作为一种学习大量未标记数据中知识的有效方法,近年来发展迅速。但是,最近的方法经常通过制定单个辅助任务来学习,例如对比预测\自回归预测或蒙版重建。

在本文中,一组研究人员提出了一种自我监督的语音预训练方法,称为“变形编码器表征法”(TERA)。与以前的技术不同,TERA使用多目标辅助任务对大量未标记的语音进行变压器编码器的预训练。

该模型通过从变化后的副本中重建声帧来学习,研究人员在其中使用随机策略沿三个维度进行变化:时间,通道和幅度。TERA可用于提取语音表示或与下游模型(包括音素分类,说话者识别和语音识别)进行微调。

TERA通过改善表面特征的方法在这些任务上实现了强大的性能。此外,研究人员表明,这一新方法可以轻松地转移到未在预训练中使用的另一个数据集。

阅读更多:
https://arxiv.org/abs/2007.06028v2

友好的联合学习研究框架

本文提出了一个名为Flower的新的联合学习(FL)框架,该框架支持在移动和无线设备上实施FL模型的实现和试验。FL(也称为协作学习)是一种机器学习(ML)技术,可跨多个分散的边缘设备或保存本地数据样本的服务器训练算法。FL专为应用于移动设备以及连接这些设备的无线链接而设计。

该研究描述了Flower的设计原理和实现细节,以及将其与基于云的移动客户端集成的几个示例。研究人员认为,这将是FL移动应用中真正改变者。

Flower通过Apache 2.0 License2的开放源代码,希望它能帮助研究社区快速试验以FL为重点的研究问题,并且社区成员将进一步扩展框架以支持新的通信协议和移动客户端。

原文:
https://arxiv.org/abs/2007.14390v1

其他爆款论文


Google推出了ScaNN开源软件,可进行有效的矢量相似度搜索:
https://github.com/google-research/google-research/tree/master/scann

致力于改善现有的CNN,高效的深度CNN Dropout:
https://arxiv.org/pdf/1904.03392v5.pdf

一种新颖的样式转移算法,可从特征中完全提取特征:
https://arxiv.org/abs/2007.13010v1

逼真的室内场景数据集的端到端开放框架:OpenRooms:
https://arxiv.org/pdf/2007.12868v1.pdf

学习资源


与MIT和Microsoft的专家一起探索数据可视化,并获得机器学习入门课程:
https://www.edx.org/course/data-science-essentials

哈佛的免费数据科学课程:讲座、视频、实验课:
http://cs109.github.io/2015/pages/videos.html

AI大事件


微软表示,我们正在从Facebook手中接管Windows 10 PyTorch AI库:
https://www.zdnet.com/article/microsoft-were-taking-over-windows-10-pytorch-ai-library-from-facebook/

英特尔发布了使用AI的道德框架:
https://www.c4isrnet.com/artificial-intelligence/2020/07/23/intel-community-releases-framework-for-ethically-using-artificial-intelligence/?utm_campaign=Artificial%2BIntelligence%2BWeekly&utm_medium=email&utm_source=Artificial_Intelligence_Weekly_172

专栏作者介绍

Christopher Dossman是Wonder Technologies的首席数据科学家,在北京生活5年。他是深度学习系统部署方面的专家,在开发新的AI产品方面拥有丰富的经验。除了卓越的工程经验,他还教授了1000名学生了解深度学习基础。

LinkedIn:

https://www.linkedin.com/in/christopherdossman/


志愿者介绍
后台回复志愿者”加入我们


点「在看」的人都变好看了哦!
浏览 16
点赞
评论
收藏
分享

手机扫一扫分享

分享
举报
评论
图片
表情
推荐
点赞
评论
收藏
分享

手机扫一扫分享

分享
举报