arXiv学术速递笔记11.30

2023-12-02 04:15
文章标签 笔记 速递 arxiv 学术 11.30

本文主要是介绍arXiv学术速递笔记11.30,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

文章目录

  • 一、AI安全
    • (对抗性训练)Topology-Preserving Adversarial Training
    • (对抗性攻击)Group-wise Sparse and Explainable Adversarial Attacks
    • (针对扩散模型的攻击)MMA-Diffusion: MultiModal Attack on Diffusion Models
    • 参考链接

一、AI安全

(对抗性训练)Topology-Preserving Adversarial Training

标题: 保持拓扑的对抗性训练
链接: https://arxiv.org/abs/2311.17607
作者: Xiaoyue Mi,Fan Tang,Yepeng Weng,Danding Wang,Juan Cao,Sheng Tang,Peng Li,Yang Liu
摘要: 尽管在提高神经网络的鲁棒性方面是有效的,但对抗性训练遭受了自然准确性降级问题,即,天然样品的准确性已大大降低。在这项研究中,我们揭示了自然精度退化是高度相关的自然样本拓扑结构的表示空间的定量和定性实验的破坏。基于这一观察结果,我们提出了拓扑保留对抗训练(TRAIN),通过在对抗训练期间仅在自然样本上训练的标准模型中保留自然样本的拓扑结构来缓解这个问题。作为一种额外的正则化,我们的方法可以很容易地以即插即用的方式与各种流行的对抗训练算法相结合,利用双方的优势。在CIFAR-10、CIFAR-100和Tiny ImageNet上进行的大量实验表明,我们提出的方法在大多数情况下都能在各种强基线上实现一致且显著的改进。具体来说,在没有额外数据的情况下,我们提出的方法在自然准确度上提高了8.78%,在鲁棒准确度上提高了4.50%。
摘要: Despite the effectiveness in improving the robustness of neural networks, adversarial training has suffered from the natural accuracy degradation problem, i.e., accuracy on natural samples has reduced significantly. In this study, we reveal that natural accuracy degradation is highly related to the disruption of the natural sample topology in the representation space by quantitative and qualitative experiments. Based on this observation, we propose Topology-pReserving Adversarial traINing (TRAIN) to alleviate the problem by preserving the topology structure of natural samples from a standard model trained only on natural samples during adversarial training. As an additional regularization, our method can easily be combined with various popular adversarial training algorithms in a plug-and-play manner, taking advantage of both sides. Extensive experiments on CIFAR-10, CIFAR-100, and Tiny ImageNet show that our proposed method achieves consistent and significant improvements over various strong baselines in most cases. Specifically, without additional data, our proposed method achieves up to 8.78% improvement in natural accuracy and 4.50% improvement in robust accuracy.


(对抗性攻击)Group-wise Sparse and Explainable Adversarial Attacks

标题: 群组稀疏和可解释的对抗性攻击
链接: https://arxiv.org/abs/2311.17434
作者: Shpresim Sadiku,Moritz Wagner,Sebastian Pokutta
摘要: 稀疏对抗攻击通过最小的像素扰动来欺骗深度神经网络(DNN),通常由 ℓ 0 \ell_0 0 norm正则化。最近的努力已经用结构稀疏正则化器(如核群规范)取代了这个规范,以制作组稀疏对抗攻击。因此,由此产生的扰动是可以解释的,并具有重要的实际意义,揭示了DNN比以前预期的更大的脆弱性。然而,制作这种攻击带来了优化挑战,因为它涉及计算非凸目标内像素组的范数。在本文中,我们提出了一种算法,同时生成组明智的稀疏攻击在语义上有意义的区域的图像来解决这一挑战。在每一次迭代中,我们算法的核心操作都涉及到对拟独立对抗损失的优化。这种优化是通过采用 1 / 2 1/2 1/2-拟不变近似算子进行一些迭代来实现的,这是一种为非凸规划量身定制的方法。随后,该算法过渡到预测Nesterov的加速梯度下降与 2 2 2-范数正则化应用于扰动幅度。我们在CIFAR-10和ImageNet数据集上严格评估了我们的新型攻击在有针对性和非有针对性攻击场景中的有效性。与最先进的方法相比,我们的攻击始终导致组稀疏性的显着增加,例如,在CIFAR-10上增加了48.12%,在ImageNet上增加了40.78%(平均情况,有针对性的攻击),同时保持较低的扰动幅度。值得注意的是,这种性能还得到了更快的计算时间和100美元攻击成功率的补充。
摘要: Sparse adversarial attacks fool deep neural networks (DNNs) through minimal pixel perturbations, typically regularized by the ℓ 0 \ell_0 0 norm. Recent efforts have replaced this norm with a structural sparsity regularizer, such as the nuclear group norm, to craft group-wise sparse adversarial attacks. The resulting perturbations are thus explainable and hold significant practical relevance, shedding light on an even greater vulnerability of DNNs than previously anticipated. However, crafting such attacks poses an optimization challenge, as it involves computing norms for groups of pixels within a non-convex objective. In this paper, we tackle this challenge by presenting an algorithm that simultaneously generates group-wise sparse attacks within semantically meaningful areas of an image. In each iteration, the core operation of our algorithm involves the optimization of a quasinorm adversarial loss. This optimization is achieved by employing the 1 / 2 1/2 1/2-quasinorm proximal operator for some iterations, a method tailored for nonconvex programming. Subsequently, the algorithm transitions to a projected Nesterov’s accelerated gradient descent with 2 2 2-norm regularization applied to perturbation magnitudes. We rigorously evaluate the efficacy of our novel attack in both targeted and non-targeted attack scenarios, on CIFAR-10 and ImageNet datasets. When compared to state-of-the-art methods, our attack consistently results in a remarkable increase in group-wise sparsity, e.g., an increase of 48.12 % 48.12\% 48.12% on CIFAR-10 and 40.78 % 40.78\% 40.78% on ImageNet (average case, targeted attack), all while maintaining lower perturbation magnitudes. Notably, this performance is complemented by a significantly faster computation time and a 100 % 100\% 100% attack success rate.


(针对扩散模型的攻击)MMA-Diffusion: MultiModal Attack on Diffusion Models

标题: MMA扩散:对扩散模型的多模式攻击
链接: https://arxiv.org/abs/2311.17516
作者: Yijun Yang,Ruiyuan Gao,Xiaosen Wang,Nan Xu,Qiang Xu
摘要: 近年来,文本到图像(T2I)模型取得了显着的进步,获得了广泛的采用。然而,这一进展无意中为潜在的滥用开辟了途径,特别是在生成不适当或不安全的工作(NSFW)内容方面。我们的工作介绍了MMA-Diffusion,这是一个框架,通过有效地规避开源模型和商业在线服务中的当前防御措施,对T2I模型的安全性构成了重大而现实的威胁。与以前的方法不同,MMA-Diffusion利用文本和视觉形式来绕过诸如提示过滤器和事后安全检查器之类的保护措施,从而暴露和突出现有防御机制中的漏洞。
摘要: In recent years, Text-to-Image (T2I) models have seen remarkable advancements, gaining widespread adoption. However, this progress has inadvertently opened avenues for potential misuse, particularly in generating inappropriate or Not-Safe-For-Work (NSFW) content. Our work introduces MMA-Diffusion, a framework that presents a significant and realistic threat to the security of T2I models by effectively circumventing current defensive measures in both open-source models and commercial online services. Unlike previous approaches, MMA-Diffusion leverages both textual and visual modalities to bypass safeguards like prompt filters and post-hoc safety checkers, thus exposing and highlighting the vulnerabilities in existing defense mechanisms.

参考链接

  • 计算机视觉与模式识别学术速递11.30
  • 机器学习学术速递11.30

这篇关于arXiv学术速递笔记11.30的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/443908

相关文章

利用Python快速搭建Markdown笔记发布系统

《利用Python快速搭建Markdown笔记发布系统》这篇文章主要为大家详细介绍了使用Python生态的成熟工具,在30分钟内搭建一个支持Markdown渲染、分类标签、全文搜索的私有化知识发布系统... 目录引言:为什么要自建知识博客一、技术选型:极简主义开发栈二、系统架构设计三、核心代码实现(分步解析

【学习笔记】 陈强-机器学习-Python-Ch15 人工神经网络(1)sklearn

系列文章目录 监督学习:参数方法 【学习笔记】 陈强-机器学习-Python-Ch4 线性回归 【学习笔记】 陈强-机器学习-Python-Ch5 逻辑回归 【课后题练习】 陈强-机器学习-Python-Ch5 逻辑回归(SAheart.csv) 【学习笔记】 陈强-机器学习-Python-Ch6 多项逻辑回归 【学习笔记 及 课后题练习】 陈强-机器学习-Python-Ch7 判别分析 【学

系统架构师考试学习笔记第三篇——架构设计高级知识(20)通信系统架构设计理论与实践

本章知识考点:         第20课时主要学习通信系统架构设计的理论和工作中的实践。根据新版考试大纲,本课时知识点会涉及案例分析题(25分),而在历年考试中,案例题对该部分内容的考查并不多,虽在综合知识选择题目中经常考查,但分值也不高。本课时内容侧重于对知识点的记忆和理解,按照以往的出题规律,通信系统架构设计基础知识点多来源于教材内的基础网络设备、网络架构和教材外最新时事热点技术。本课时知识

论文翻译:arxiv-2024 Benchmark Data Contamination of Large Language Models: A Survey

Benchmark Data Contamination of Large Language Models: A Survey https://arxiv.org/abs/2406.04244 大规模语言模型的基准数据污染:一项综述 文章目录 大规模语言模型的基准数据污染:一项综述摘要1 引言 摘要 大规模语言模型(LLMs),如GPT-4、Claude-3和Gemini的快

论文阅读笔记: Segment Anything

文章目录 Segment Anything摘要引言任务模型数据引擎数据集负责任的人工智能 Segment Anything Model图像编码器提示编码器mask解码器解决歧义损失和训练 Segment Anything 论文地址: https://arxiv.org/abs/2304.02643 代码地址:https://github.com/facebookresear

数学建模笔记—— 非线性规划

数学建模笔记—— 非线性规划 非线性规划1. 模型原理1.1 非线性规划的标准型1.2 非线性规划求解的Matlab函数 2. 典型例题3. matlab代码求解3.1 例1 一个简单示例3.2 例2 选址问题1. 第一问 线性规划2. 第二问 非线性规划 非线性规划 非线性规划是一种求解目标函数或约束条件中有一个或几个非线性函数的最优化问题的方法。运筹学的一个重要分支。2

【C++学习笔记 20】C++中的智能指针

智能指针的功能 在上一篇笔记提到了在栈和堆上创建变量的区别,使用new关键字创建变量时,需要搭配delete关键字销毁变量。而智能指针的作用就是调用new分配内存时,不必自己去调用delete,甚至不用调用new。 智能指针实际上就是对原始指针的包装。 unique_ptr 最简单的智能指针,是一种作用域指针,意思是当指针超出该作用域时,会自动调用delete。它名为unique的原因是这个

查看提交历史 —— Git 学习笔记 11

查看提交历史 查看提交历史 不带任何选项的git log-p选项--stat 选项--pretty=oneline选项--pretty=format选项git log常用选项列表参考资料 在提交了若干更新,又或者克隆了某个项目之后,你也许想回顾下提交历史。 完成这个任务最简单而又有效的 工具是 git log 命令。 接下来的例子会用一个用于演示的 simplegit

记录每次更新到仓库 —— Git 学习笔记 10

记录每次更新到仓库 文章目录 文件的状态三个区域检查当前文件状态跟踪新文件取消跟踪(un-tracking)文件重新跟踪(re-tracking)文件暂存已修改文件忽略某些文件查看已暂存和未暂存的修改提交更新跳过暂存区删除文件移动文件参考资料 咱们接着很多天以前的 取得Git仓库 这篇文章继续说。 文件的状态 不管是通过哪种方法,现在我们已经有了一个仓库,并从这个仓

忽略某些文件 —— Git 学习笔记 05

忽略某些文件 忽略某些文件 通过.gitignore文件其他规则源如何选择规则源参考资料 对于某些文件,我们不希望把它们纳入 Git 的管理,也不希望它们总出现在未跟踪文件列表。通常它们都是些自动生成的文件,比如日志文件、编译过程中创建的临时文件等。 通过.gitignore文件 假设我们要忽略 lib.a 文件,那我们可以在 lib.a 所在目录下创建一个名为 .gi