Adversarial Robustness Toolbox检测模型及对抗攻击的工具箱​

联合创作 · 2023-09-26 04:39

Adversarial Robustness Toolbox 是 IBM 研究团队开源的用于检测模型及对抗攻击的工具箱,为开发人员加强 AI 模型被误导的防御性,让 AI 系统变得更加安全,目前支持 TensorFlow 和 Keras 框架,未来预计会支持更多框架。


支持以下攻击和防御的方法



  • Deep Fool


  • Fast Gradient Method


  • Jacobian Saliency Map


  • Universal Perturbation


  • Virtual Adversarial Method


  • C&W Attack


  • NewtonFool



防御方法



  • Feature squeezing


  • Spatial smoothing


  • Label smoothing


  • Adversarial training


  • Virtual adversarial training


浏览 22
点赞
评论
收藏
分享

手机扫一扫分享

编辑 分享
举报
评论
图片
表情
推荐
点赞
评论
收藏
分享

手机扫一扫分享

编辑 分享
举报