【12.23-12.24】Member Inference Attack

2023-10-11 18:59

本文主要是介绍【12.23-12.24】Member Inference Attack,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

文章目录

  • 前言
  • 一、Repeated Knowledge Distillation with Confidence Masking to Mitigate Membership Inference Attacks
    • 1.1 Member Inference Attack
    • 2.2 Confidence Score Masking
    • 2.3 Knowledge Distillation
  • 二、Membership Inference Attacks Against Machine Learning Models
    • 2.1 概述
      • membership inference
      • shadow model
      • 过拟合
    • 2.2 防御手段
    • 2.3 相关工作


前言

`    了解到两篇关于Member Inference Attack 问题的论文并进行简单的整理。只是大致浏览了解描述的内容,具体实验过程没有深入研究。
    第一篇论文来自CCS-机器学习安全和隐私会议(2022),描述了一种新的方法:基于KD+Confidence Masking的结合;第二篇也属于成员推断攻击的经典论文之一,介绍了什么是成员推断攻击,介绍了如何构造问题和一些防御手段。


一、Repeated Knowledge Distillation with Confidence Masking to Mitigate Membership Inference Attacks

Mitigate Membership Inference Attacks

1.1 Member Inference Attack

Member Inference Attack, 成员推测攻击;在针对在私有数据集 𝐷 上训练的模型 𝑓 ,攻击者被赋予一个特定的数据点 𝑥(可选地存在与其关联的真实标签 𝑦),并旨在找出 𝑥 是否是训练数据集的一部分𝑓的,即是否𝑥∈𝐷。
即决定给定的数据(data record)判断是否是目标模型(target model)的训练集。

两种场景:
1). black-box setting: 黑盒攻击,即攻击者可以获取模型的预测结果但不知道模型参数。Shokri et al.’s [17]
攻击者可以生成多个shadow models(攻击者可用的数据集【的子集】上训练的目标模型的副本);然后可以判断数据是否被训练进而评估获取预测结果。

paper [17]中所提到的 shadow training technique.
First, we create multiple “shadow models” that
imitate the behavior of the target model, but for which we
know the training datasets and thus the ground truth about
membership in these datasets. We then train the attack model
on the labeled inputs and outputs of the shadow models

shadow models被使用的越多,用于训练攻击模型数据的数据就越多,模型准确率越高。
2). white-box setting: 白盒攻击,即攻击者可以看到模型的架构和内部参数。Nasr et al.’s [13]
简言之,攻击者可以根据目标点对(x, y)计算模型的中间结果(前向/后向传播过程中的数值)

2.2 Confidence Score Masking

在黑盒攻击中,通常建设输出结果为对输入数据的似然概率。即输入数据在每一种分类的概率。
为了避免攻击者从输出结果中获取过多信息,可以采用下列方法:

  • 对预测结果添加随机噪音
  • 仅返回k个最有可能的分类
  • 仅返回给用户相应的预测标签,不暴露额外数据。

2.3 Knowledge Distillation

存在两个模型:teacher modelstudent model,进行学习知识的迁移,通过使用teacher model的预测输出作为student model的训练数据,保证数据集的私有化。Shejwalkar et al. [16]

end-----
仅了解背景介绍,和基础知识铺垫;暂未看实验过程

二、Membership Inference Attacks Against Machine Learning Models

2.1 概述

membership inference

假设:对于输入,模型输出为一组vector of probabilities, 描述当前输入划分每一类的概率。该概率值被称为 confidence values
认定攻击者可以接触目标模型,并能够获取目前模型给出的任意数据预测值。
在这里插入图片描述

  1. 上图为黑盒攻击,即不知道模型内部架构,只能获取模型的输出预测;通过比较判断data record是否为训练数据。
  2. Attack model的目标是识别target model的差异性,并通过这种差异利用prediction识别member和non-member

shadow model

用于构造attack model的一种方法;通过多个与target model 类型的模型称为shadow model,训练集D’为目标训练集D的子集进行构造。
假设用于训练影子模型的数据集与用于训练目标模型的私有数据集不相交 。这对攻击者来说是最坏的情况;如果训练数据集恰好重叠,则攻击的效果会更好。

对于训练shadow model的训练集D’,意味着攻击者需要构造与目标数据D分布类似的数据,并不是说已知部分隐私数据 。(下面生成数据的方法为主)

构造数据的手段

  • Model-based synthesis: 利用目标模型合成数据
  • Statistics-based synthesis:攻击者可能有一些关于从中提取目标模型训练数据的人群的统计信息
  • Noisy real data: 攻击者可能有权访问一些与目标模型的训练数据相似的数据,并且可以被视为其“嘈杂”版本

在这里插入图片描述

过拟合

过度拟合并不是member inference attack起作用的唯一原因。不同的机器学习模型,由于其不同的结构,“记住”有关其训练数据集的不同信息量。即使模型过度拟合到相同程度,这也会导致不同数量的信息泄漏。

2.2 防御手段

  1. Restrict the prediction vector to top k classes
    当类别很多的时候,往往大部分分类输出的概率很低;因此可以只选择输出概率最大的几类减少信息泄露的范围。
  2. Increase entropy of the prediction vector
    结果粗化;将预测结果四舍五入,降低精度。
  3. Use regularization
    该方法用于处理过拟合问题。
  4. Increase entropy of the prediction vector.

Increase entropy of the prediction vector also used in knowledge distillation and information transfer between models [20]

2.3 相关工作

这里提到的是对机器学习安全和隐私领域的其他研究进行概述。

  1. Attacks on statistical and machine learning models

首先, 可以推断数据集的统计信息。其次, 对手利用协作推荐系统输出的变化来推断导致这些变化的输入

  1. model inversion

应用于隐藏输入的模型输出来推断该输入的某些特征。
use the output of a model applied to a hidden input to infer certain features of this input

  1. Model extraction
  2. Privacy-preserving machine learning

这篇关于【12.23-12.24】Member Inference Attack的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/190162

相关文章

mysql数据库member中telephone字段被篡改

现在准备查询log日志文件,看下被操作的原因是什么

【spring】does not have member field ‘com.sun.tools.javac.tree.JCTree qualid

spring-in-action-6-samples 的JDK版本 最小是11,我使用 了22: jdk21 jdk22 都与lombok 不兼容,必须使用兼容版本, 否则报错: thingsboard 的大神解释了: java: java.lang.NoSuchFieldError: Class com

预计算攻击(Precomputation Attack):概念与防范

预计算攻击(Precomputation Attack)是一种密码学中的攻击技术,攻击者通过提前计算出可能的密钥或哈希值的映射表,来减少实际攻击时的计算量和时间。预计算攻击广泛应用于针对密码散列函数和对称加密算法的攻击中,常用于破解密码哈希、数字签名等。 1. 预计算攻击的基本概念 预计算攻击的核心思想是通过在攻击前进行大量的计算工作,生成一个可能值到其哈希值(或加密值)的映射表(即“预计算表

ML17_变分推断Variational Inference

1. KL散度 KL散度(Kullback-Leibler divergence),也称为相对熵(relative entropy),是由Solomon Kullback和Richard Leibler在1951年引入的一种衡量两个概率分布之间差异的方法。KL散度不是一种距离度量,因为它不满足距离度量的对称性和三角不等式的要求。但是,它仍然被广泛用于量化两个概率分布之间的“接近程度”。 在

C++ std::multiset返回值 has no member named ‘first’

error: ‘std::multiset<>::iterator {aka struct std::_Rb_tree_const_iterator<>}’ has no member named ‘first’   multiset返回的直接是迭代器,所以没有first // INTEGER EXAMPLE // CPP program to illustrate // Implem

NLP-文本匹配-2016:ESIM【Enhanced LSTM for Natural Language Inference】

NLP-文本匹配-2016:ESIM【Enhanced LSTM for Natural Language Inference】

CF #364 (Div. 2) (B. Cells Not Under Attack 标记)

题目连接 在一个n*n的网格上,若果某个位置上放了一个棋子,那么棋子所在的行和列就算被覆盖了,每次放一个棋子问剩余的没有覆盖的点有几个 使用,两个数组分别标记行和列,在用两个变量保存X集合的可用数,Y集合的可用数,那么放入一个棋子,检查下X,Y集合就好了 #include<cstdio>#include<algorithm>#include<iostream>#include<vect

论文《Adversarial Examples on Graph Data: Deep Insights into Attack and Defense》笔记

【IG-Attack 2019 IJCAI】本文提出了一种基于integrated gradients的对抗攻击和防御算法。对于攻击,本文证明了通过引入integrated gradients可以很容易解决离散问题,integrated gradients可以准确反映扰动某些特征或边的影响,同时仍然受益于并行计算。对于防御,本文观察到目标攻击的被攻击图在统计上不同于正常图。在此基础上,本文提出了一

条款23 宁以non-member、non-friend替换member函数

总结:     用非成员非友元函数取代成员函数。这样做可以提高封装性,包装弹性,和机能扩充性       想象一个用来表示网页浏览器浏览器的类。这样一个类可能提供的大量函数中,有一些用来清空下载元素高速缓存区、清空访问过的URLs历史,以及从系统移除所有cookies的功能: class WebBrowser {public:...void clearCache();void c

防止XSS Attack攻击的解决方案

需求: 1.防止用户RequestBody里面数据包含XSS Attack代码 2.防止用户RequestURL地址中包含XSS Attack代码 解决方案及思路: 1.写个拦截器拦截用户请求,之后正则表达式去过滤RequestBody和RequestURL部分包含恶意攻击的代码。 2.具体代码如下 /*** Project Name: * File Name:SecurityFil