0
点赞
收藏
分享

微信扫一扫

组会 | RELAXLOSS: DEFENDING MEMBERSHIP INFERENCE ATTACKS WITHOUT LOSING UTILITY

吴wuwu 2022-03-12 阅读 8

20220304 组会记录

文章目录

论文一

top view

文章做的工作就如同标题说的, 在防御MIA(Membership Inference Attacks)的同时, 也不损失分类精度

How to do

n n n e p o c h epoch epoch

  1. 自己设定一个阈值 α \alpha α , 当计算交叉熵损失在 L ( θ ) ≥ α \mathcal{L}(\theta)\geq\alpha L(θ)α 时, 就对损失值做梯度下降更新模型参数 θ \theta θ

  2. 假如此时 L ( θ ) < α \mathcal{L}(\theta)\lt\alpha L(θ)<α

    1. 当此时 e p o c h epoch epoch 为偶数时, 则对模型参数 θ \theta θ 做梯度上升更新

    2. 当此时 e p o c h epoch epoch 为奇数时, 则通过以下方法对模型参数 θ \theta θ 进行以下更新

      1. 当前样本 x i x_i xi , 经过模型的输出得到 p i = f ( x i ; θ ) p_i=f(x_i;\theta) pi=f(xi;θ)
      2. 对样本 x i x_i xi 构建软标签得到 t i t_i ti , 其中 t i t_i ti 是样本 x i x_i xi 的软标签

      t i c = { p i c i f y i c = 1 ( 1 − p i g t ) / ( C − 1 ) o t h e r w i s e t^{c}_{i}=\left\{ \begin{array}{l} p_i^c & & {if \quad y_i^c=1}\\ (1-p_i^{gt})/(C-1) & & {otherwise} \end{array} \right. tic={pic(1pigt)/(C1)ifyic=1otherwise

      论文中算法流程图中给出的是 ( 1 − p i c ) (1-p_i^c) (1pic) , 但是真正的应该是 ( 1 − p i g t ) (1-p_i^{gt}) (1pigt)

      1. 用软标签 t i c t_i^c tic 计算交叉熵损失
      1. 根据用软标签计算出来的交叉熵损失 L \mathcal{L} L 进行梯度下降更新模型参数 θ \theta θ
  3. 算法流程图:
    在这里插入图片描述

Communicate

  1. L \mathcal{L} L 小于 α \alpha α 后, 为什么要梯度上升?
    1. 防止"过于拟合"训练集
    2. "拉宽"决策边界
    3. 我们猜测作者是想通过对训练集放松拟合, 以尝试去提高在测试集上的精度
    4. 但是没有确切理论可以证明在训练集上"放松"拟合, 可以提高泛化性
  2. L \mathcal{L} L 小于 α \alpha α 后的另外一个 操作, 为什么要用软标签? 而且要将非真实类"拉平(平均)"
    1. 也是和上述第一点提到的一样, 并不想梯度"直直地"往着 [ 0 , 0 , 1 ] [0,0,1] [0,0,1] 的方向走去拟合训练集
    2. 对非真实类"拉平"通俗地讲是防止"差异化", 防止成员推理攻击(MIA)
    3. 最终, 模型并非往着 [ 0 , 0 , 1 ] [0,0,1] [0,0,1] 的方向走, 也不是往着 [ 0.1 , 0.2 , 0.7 ] [0.1, 0.2,0.7] [0.1,0.2,0.7] 的方向走, 而是往着 [ 0.15 , 0.15 , 0.7 ] [0.15,0.15,0.7] [0.15,0.15,0.7] 的方向走
    4. 这样做的目的无非也就是防止对训练集"过于拟合", 以达到在测试集上"有更高精度", 并且防止"差异化"过大而受到MIA

Note

此为组会记录, 并未仔细读过该篇论文, 且对 MIA 成员推理攻击并未有过多了解, 因此该篇文章仅作记录.

论文下载

  1. csdn资源下载
  2. openview 地址
举报

相关推荐

0 条评论