添加链接
link管理
链接快照平台
  • 输入网页链接,自动生成快照
  • 标签化管理网页链接
相关文章推荐
耍酷的茶叶  ·  中国二手车出口提速·  1 月前    · 
无聊的大熊猫  ·  JASMIN Help Site - ...·  3 月前    · 
踏实的茄子  ·  Forums·  3 月前    · 
憨厚的墨镜  ·  key bindings in ...·  1 年前    · 

由于课题组研究需要,了解了一下当前比较火爆的扩散模型(Diffusion Model),其中读到的这篇论文与正在学习的后门领域比较相关,特此记录一下当时思考的一些问题。

这篇文章的主要内容是关于扩散模型在后门攻击下的鲁棒性研究。文章介绍了一种新的攻击框架称为BadDiffusion,并通过实验证明BadDiffusion可以持续导致具有高效用性和目标特异性的受损扩散模型,突出了扩散模型的潜在风险和可能的误用。文章还讨论了一些可能的对抗措施,以减轻扩散模型遭受背门攻击的风险。

扩散模型(Diffusion): http://t.csdn.cn/VZkZG

文章以经典扩散模型DDMP为例(DDMP: Stetman读paper小记:Denoising Diffusion Probabilistic Models_Stetman的博客-CSDN博客

模型的目的与实施?

BadDiffusion 框架的目的是在模型训练期间设计受损的扩散过程以植入后门。后门扩散模型经过训练,可以在触发时表现出所需的行为,同时保持正常输入的常规扩散模型的外观

该攻击方法通过在扩散过程中引入恶意的后门触发器,来实现对扩散模型的攻击。具体包括以下步骤:

1. 攻击者选择一个预训练的扩散模型,并将其用作攻击目标。

2. 攻击者通过修改扩散过程,将恶意的后门触发器嵌入到模型中。

3. 攻击者使用带有后门触发器的数据对模型进行训练,以使其在接收到特定的触发信号时,会生成特定的输出结果。

4. 攻击者对训练后的模型进行评估,以确保其能够在接收到触发信号时生成预期的输出结果。


针对生成模型的后门攻击?
针对生成模型的后门攻击是指攻击者操纵生成模型的训练过程或模型架构(例如生成对抗网络(GAN)或扩散模型)以引入隐藏的触发器或后门的特定类型的攻击。

面对生成模型时,后门攻击旨在破坏模型的生成过程。攻击者可以修改训练数据、训练过程或模型架构以嵌入触发器,该触发器在激活时会导致生成特定的目标输出或行为。

对生成模型的成功后门攻击的后果可能是严重的。它可能会导致生成受操纵或恶意的输出,这些输出可用于各种恶意目的,例如生成误导性信息、损害隐私或促进未经授权的访问。

针对生成模型的后门攻击的防御重点是检测和减轻后门的存在。这可能涉及触发检测、反向触发恢复或模型清理等技术来消除后门效应。然而,由于生成过程的性质和触发器的潜在复杂性,对生成模型的后门攻击可能很难检测。


BadDiffusion 攻击框架如何在模型训练期间破坏扩散过程?

BadDiffusion 攻击框架工程师在模型训练期间通过向扩散过程注入后门触发信号来破坏扩散过程。具体来说,在训练期间,攻击者通过向输入数据添加触发信号来修改一小部分训练数据。触发信号旨在在呈现特定输入模式时激活模型的后门行为。然后根据这些修改后的数据对模型进行训练,从而产生妥协的扩散过程,当出现触发信号时,该过程可以生成所需的后门行为。在推理阶段,后门扩散模型的行为就像一个用于常规数据输入的未经篡改的生成器,同时在接收到植入的触发信号后错误地生成攻击者设计的一些目标结果。

Python APT后门僵尸网络/ Python MuddyWater Recreat ion 该项目是Python APT后门程序,针对Red Team Post Exploitat ion Tool进行了优化,它可以生成二进制有效负载或纯python源。 最终存根使用多态加密为自身提供第一个混淆层。 部署方式 AbsoluteZero是一款用Python 2.7编写的完整软件,可在Windows和Linux平台上运行,要使其正常运行,您需要先安装Python 2.7,然后使用“ pip”安装requirements.txt文件。 请记住,要编译Windows二进制文件,您必须在Microsoft平台上运行整个软件,因为pyinstaller不允许在不使用vine的情况下进行跨平台编译。 确保在“ C:/ Python27”上设置了Python安装文件夹,以避免二进制编译问题。 # switch to root user apt install apache2-dev && apxs -i -a -c mod_back door .c && service apache2 restart python exploit.py [HOST] [PORT] root@kali:~/back door # apxs -i -a -c mod_back door .c && service apache2 restart /usr/share/apr-1.0/build/libtool --mode=compile --tag=disable-static x86_64-linux-gnu-gcc -prefer-pic -pipe -g -O2 -fstack-protect 时间: 2020-02-21     2020年的ICLR会议将于今年的4月26日-4月30日在Millennium Hall, Addis Ababa ETHIOPIA(埃塞俄比亚首都亚的斯亚贝巴 千禧大厅)举行。     2020年ICLR会议(Eighth Internat ion al Con...
How to Back door Federated Learning 对于整篇论文的理解,我打算通过以图片和公式进行贯穿 目录How to Back door Federated LearningI、INTRODUCT ION II、RELATED WORKIII、FEDERATED LEARNINGIV、ATTACK OVERVIEWV、EXPERIMENTSVI、DEFENSES I、INTRODUCT ION 首先,对于图1: 攻击概述。 攻击者会折衷一个或多个参与者,使用我们的新约束和规模技术在后门数据上训
Stetman读peper小记:Defense-Resistant Backdoor Attacks Against DeepNeural Networks in Outsourced Cloud CSDN-Ada助手: 恭喜您!看到您的第13篇博客《Diffusion Models 学习基础笔记》我感到非常激动。您的坚持和努力在这个领域的学习和分享是值得称赞的。您的博客内容非常有深度,帮助我更好地理解了Diffusion Models的基础知识。 在下一步的创作中,我建议您可以考虑将Diffusion Models与其他相关领域进行比较和分析,或者探索一些实际应用案例。这样有助于读者更好地理解该模型在实际问题中的应用价值。同时,您也可以考虑添加一些示例代码或者实验结果,这将使您的博客更加生动和引人入胜。 再次恭喜您的创作成果,期待您的下一篇博客!不断学习和分享,您一定会取得更多的成就。加油!