本站消息

站长简介/公众号


站长简介:高级软件工程师,曾在阿里云,每日优鲜从事全栈开发工作,利用周末时间开发出本站,欢迎关注我的微信公众号:程序员总部,程序员的家,探索程序员的人生之路!分享IT最新技术,关注行业最新动向,让你永不落伍。了解同行们的工资,生活工作中的酸甜苦辣,谋求程序员的最终出路!

  价值13000svip视频教程,python大神匠心打造,零基础python开发工程师视频教程全套,基础+进阶+项目实战,包含课件和源码

  出租广告位,需要合作请联系站长

+关注
已关注

分类  

暂无分类

标签  

暂无标签

日期归档  

2021-02(32)

2021-03(42)

论文阅读——DaST: Data-free Substitute Training for Adversarial Attacks

发布于2021-12-02 00:21     阅读(1126)     评论(0)     点赞(13)     收藏(3)



摘要

对于黑盒设置,当前的替代战术需要预先训练的模型来生成对抗样本。然而,在现实世界的任务中很难获得预先训练的模型。本文提出了一种无数据替代训练方法(DaST),在不需要任何真实数据的情况下获得对抗黑箱攻击的替代模型。作者针对generative moddel设计了一个multi-branch 结构和label-control loss来解决合成样本分布不均匀的问题

缺陷

替代模型仅针对与某一特定的目标模型
仍需访问目标模型的输出或输出概率分布
训练生成器查询量必定很大

相关性工作
攻击方法主要分为两类:黑盒攻击和白盒攻击。
黑盒攻击主又可分为基于分数的攻击和基于决策的攻击利用被攻击模型返回的类概率或硬标签直接攻击被攻击模型。这些攻击方法不需要预先训练的替代模型,但是作为代价,它们需要对被攻击模型进行大量查询来生成每次攻击。

方案

使用生成网络构造替代模型的数据集,因此可在训练替代模型时不需要数据

(1)生成器损失
在这里插入图片描述
其中,在这里插入图片描述

(2)替代模型损失
在这里插入图片描述

(3)生成网络训练算法

在这里插入图片描述
疑问:

z是什么?如何取值?

对比的模型为什么全是白盒攻击?

原文链接:https://blog.csdn.net/yayayamaomaoya/article/details/121621976







所属网站分类: 技术文章 > 博客

作者:343ueru

链接:https://www.pythonheidong.com/blog/article/1106475/5aef1cde83d27d138c16/

来源:python黑洞网

任何形式的转载都请注明出处,如有侵权 一经发现 必将追究其法律责任

13 0
收藏该文
已收藏

评论内容:(最多支持255个字符)