Adversarial Robustness Toolbox检测模型及对抗攻击的工具箱​

0粉丝
Adversarial Robustness Toolbox 是 IBM 研究团队开源的用于检测模型及对抗攻击的工具箱,为开发人员加强 AI 模型被误
简介
Adversarial Robustness Toolbox 是 IBM 研究团队开源的用于检测模型及对抗攻击的工具箱,为开发人员加强 AI 模型被误导的防御性,让 AI 系统变得更加安全,目前支持 TensorFlow 和 Keras 框架,未来预计会支持更多框架。支持以下攻击和防御的方法Deep... 更多
其它信息
地区
不详
开发语言
Python
开源组织
IBM
所属分类
神经网络/人工智能、 机器学习/深度学习
授权协议
MIT
操作系统
跨平台
收录时间
2023-09-26
软件类型
开源软件
适用人群
未知

时光轴

里程碑1
LOG0
2023
2023-09
轻识收录
评价
0.0(满分 10 分)0 个评分
什么是点评分
图片
表情
全部评价( 0)
推荐率 100%
推荐