2024微软人工智能系统人工智能安全隐私_第1页
2024微软人工智能系统人工智能安全隐私_第2页
2024微软人工智能系统人工智能安全隐私_第3页
2024微软人工智能系统人工智能安全隐私_第4页
2024微软人工智能系统人工智能安全隐私_第5页
已阅读5页,还剩40页未读 继续免费阅读

下载本文档

版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领

文档简介

1背景介绍背景介绍自动驾驶 人脸识别/验证 推荐系统训练部署 使用训练用户数据收集训练数据 模型 生产环境数据收集安全攻击隐私泄露

不当的后果

WENEEDRESPONSIBLEAI!目录目录完整性(Integrity): 保密性(Confidentiality): 伦理(Ethics): 完整性完整性-预测结果的鲁棒性 gradientsignmethod(FGSM): 迭代地生成通用的对抗攻击扰动Universaladversarialperturbations[MoosaviCVPR2017]原模型AFN模型训练一个输入转换模型𝑔迭代地生成通用的对抗攻击扰动Universaladversarialperturbations[MoosaviCVPR2017]原模型AFN模型Lossfunction:AdversarialTransformationNetworks(AFN)[BalujaAAAI2018]完整性-完整性-预测结果的鲁棒性 对抗样本预测结果

原样本

累积误差 Printedadversarialsamplestofoolimageclassifier[Kurakin2017]

Adversarialstickerstofoolobjectdetection[Evtimov2017]

AdvHattofoolfaceIDsystem[KomKov Foolingspeech-to-text[Carlini2018]Foolingspeech-to-text[Carlini2018][Fukui2016]

FoolingRLagent[Kos2017]完整性完整性-预测结果的鲁棒性迁移学习(transferlearning)实际应用中常用的一种模型训练方式。通过复用已训练好的模型(teachermodel)的大部分参数,可以使用更少的数据更快地训练出符合特定应用场景的模型。 ImagefromDawnSong’stalk/sf2017/system/files/presentation-slides/dawn-qcon-nov-20172.pdf目前还没有完美的防御方法! [PapernotS&P2016]防御成功的原因:蒸馏使得网络中Softmax层的输入被缩放(因此不同输出的决策过程区别更大),同时使攻击时的梯度更小。攻击者可以轻易破解蒸馏防御机制[CarliniCVPR2017]。[ourwork]

正常样本和对抗样本的slice区别很大,因此可以用于检测对抗样本。 基于symbolicintervalanalysis(符号区间分析)的模型安全性验证[WangSecurity2018]完整性完整性-预测过程的可信性 [ourwork] Row-HammerAttack(RHA)[Rakin[Clements2018] 保密性保密性-数据保密性 根据f构造代价函数c根据f构造代价函数c 找到能使c(x)最小的样本x在样本上进行梯度下找到能使c(x)最小的样本x在样本上进行梯度下行修正有关。[YeomCSF’2018] Shadowmodeldata生成方法:基于模型搜索数据基于数据统计信息基于有噪音的真实数据 简单例子:社会学调查目标:调查人员希望获取一个群体中拥有属性A的大致比例,又不能侵犯群体中每个个体的隐私。方法:让每个被调查者采用如下流程:扔一枚硬币𝑝′=1𝑝+12 4 NameHasDiabetes(X)Ross1Monica1Joey0Phoebe0Chandler1ɛ数b应为𝑆𝐹,其中𝑆(𝐹)为查询函数F的敏感度满足ɛ-差分隐私保护的Laplace噪声,其尺度参期望为0,方差为ɛ数b应为𝑆𝐹,其中𝑆(𝐹)为查询函数F的敏感度满足ɛ-差分隐私保护的Laplace噪声,其尺度参期望为0,方差为2𝑏2的Laplace分布,其概率密度函数为:计算梯度削减梯度添加噪声更新模型参数计算梯度削减梯度添加噪声更新模型参数 [SegalCCS2017]

Imagefrom:/federated-learning-e79e054c33ef[ourwork] 保密性保密性-模型保密性 模型窃取方式:直接窃取:直接攻克模型的开发、存储或部署环境,获得原模型的拷贝。间接窃取:通过不断调用模型开发者提供的预测API,重构出一个训练数据Security2016][OrekondyCVPR2019]。 [AdiSecurity2018]将水印嵌入模型输出。通过类似于后门攻击的方法,使模型在特定输入上产生特定输出。

[DeepAttestISCA2018]将水印嵌入模型参数。通过fine-tune使模型的参数逼近特定的指纹。[ourwork]给定模型f和模型g,相似度比较算法如下:1. 生成N个随机样本对{(𝑥1𝑎𝑥1𝑏𝑥2𝑎𝑥2𝑏𝑥𝑁𝑎𝑥𝑁𝑏)}𝑖2. f,计算s𝑓=𝑠𝑖𝑚𝑓𝑥𝑖𝑎𝑓(𝑥𝑖𝑏)。𝑖<s𝑓,𝑠𝑓,…,𝑠𝑓>为模型f的决策向量V𝑓1 2 𝑁Vg模型f与模型gV𝑓和Vg的距离度量 [GravitonOSDI2018]通过修改GPU驱动和CUDAruntime,在GPU上支持TEE[GravitonOSDI2018]通过修改GPU驱动和CUDAruntime,在GPU上支持TEE

[SlalomICLR2019]将一部分复杂的线性计算经加密后外放(outsource)到普通区域 伦理伦理-算法公平性 公平性的定义(DemographicParity)𝑝(如种族、性别等),𝑦𝑝无关:Pr(𝑦|𝑝) = Pr(𝑦)实际情况中𝑝往往不易定义。 编码器中间表示Z编码器原始数据

对抗方h尝试基于中间表示Z预测敏感性质A训练目标:使对抗方难以从中间表示Z中预测出敏感性质A,同时优化中间表示的效果 伦理-伦理-算法的滥用AI生成假新闻

AI诈骗电话 Project注:图文无关伦理伦理-算法的滥用 基于AI的个性化推荐系统无处不在,精准地推荐用户更喜欢看到的内容。YouTu

温馨提示

  • 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
  • 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
  • 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
  • 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
  • 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
  • 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
  • 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。

评论

0/150

提交评论