网站首页
编程语言
数据库
系统相关
其他分享
编程问答
对抗性
2024-08-23
大语言模型的事实知识:一个全面的评估
大语言模型(LLMs)近年来在自然语言处理领域掀起了一场革命。它们在预训练和指令微调过程中获得的事实知识,为问答、语言生成等下游任务带来了显著的性能提升。然而,与传统的知识库不同,LLMs是以隐式的方式将事实存储在模型参数中。这种方式可能导致LLMs生成的内容出现不准
2024-06-22
内容安全复习 7 - 对抗攻击与防御
文章目录概述攻击对抗性攻击的目的攻击的损失函数如何攻击FGSM黑盒与白盒真实世界的攻击防御被动防御主动防御概述动机(1)不仅要在实验室中部署机器学习分类器,也要在现实世界中部署;实际应用(2)分类器对噪声具有鲁棒性和在“大多数情况下”有效是不够的。(3)想要鲁棒的
2024-06-13
深度学习一站式指南
深度学习是机器学习完全基于人工神经网络由于神经网络将模仿人类大脑,因此深度学习也是对人类大脑的一种模仿。本文涵盖了基本和高级概念,为初学者和专业人士提供了对技术的全面了解。无论你是深度学习的新手还是有一定经验的人,都将帮助你轻松了解深度学习的不同技术。什么是深
2024-06-11
Summary:《Adversarial Machine Learning in Image Classification: A Survey Towards the Defender’s Persp
Note“TaxonomyofAdversarialImages”(Machado等,2023,p.5)(pdf)扰动范围(PerturbationScope):个体扰动(Individual-scopedperturbations):为每个输入图像单独生成的扰动。通用扰动(Universal-scopedperturbations):独立于任何输入样本生成的扰动,可应用于任何合
2024-04-23
As a reader --> AdvDiffuser: Natural Adversarial Example Synthesis with Diffusion Models
2024-04-23
As a reader --> Diffusion Models for Imperceptible and Transferable Adversarial Attack
2024-04-13
COMP7250 用神经网络进行简单分类
COMP7250的编程赋值欢迎参加COMP7250的课业!本课业由两部分组成:第1部分:用神经网络进行简单分类第2部分:神经网络的对抗性例子。通过尝试此任务,您将对以下内容有一个简要的了解:如何处理数据;如何建立一个简单的网络;向前和向后传播的机制;如何使用FGSM和PGD方法生成对抗性示例。注意:尽管
2024-03-26
As a reader --> On the Robustness of ML-Based Network Intrusion Detection Systems: An Adversarial
2024-03-13
【论文阅读】Natural Adversarial Examples 自然对抗的例子
文章目录一、文章概览(一)摘要(二)导论(三)相关工作二、IMAGENET-A和IMAGENET-O(一)数据集构造方式(二)数据收集过程三、模型的故障模式四、实验(一)评估指标(二)使用数据增强(三)使用更多更真实的标记数据(四)架构变化策略一、文章概览(一)摘要文章的主要工作:使用简单的对抗性过
2024-01-23
读论文-基于注意力机制的对抗性协同过滤推荐算法
前言今天读的论文为一篇名叫《基于注意力机制的对抗性协同过滤推荐算法》,文中主要介绍了一种基于相关注意力的协同过滤推荐算法,该算法结合深度学习中的注意力机制为不同物品分配不同的权值来捕获与目标物品最相关的物品,探索不同物品的权重对模型预测的影响并以此提升推荐的准确
2023-11-08
ai换脸可以突破人脸识别吗,有没有技术可以攻破
人工智能(AI)换脸技术,通常被称为“Deepfakes”,可以生成几乎无法与真实面部区分开的面部图像或视频。这种技术的确有可能被用来欺骗人脸识别系统,至少是那些不具备足够先进检测机制的系统。以下是一些可能被用来攻破人脸识别系统的技术和方法:1.制作高质量的Deepfakes如果AI生成的换
2023-08-23
论文解读 | 解释和利用对抗性示例
原创|文BFT机器人摘要ABSTRACT这篇论文研究了神经网络和其他机器学习模型在错误分类对抗性示例方面的问题。对抗性示例是通过对数据中的示例应用微小但故意的扰动来生成的,导致模型输出错误答案。以往的解释主要集中在非线性和过拟合上,然而,本文提出了一种不同的观点,认为神经网络
2023-06-22
PromptBench:大型语言模型的对抗性基准测试
PromptBench是微软研究人员设计的一个用于测量大型语言模型(llm)对对抗性提示鲁棒性的基准测试。这个的工具是理解LLM的重要一步,随着这些模型在各种应用中越来越普遍,这个主题也变得越来越重要。研究及其方法论PromptBench采用多种对抗性文本攻击,研究人员生成了4000多个对抗性提
2023-05-09
Robust Deep Reinforcement Learning through Adversarial Loss
郑重声明:原文参见标题,如有侵权,请联系作者,将会撤销发布!35thConferenceonNeuralInformationProcessingSystems(NeurIPS2021) Abstract最近的研究表明,深度强化学习智能体很容易受到智能体输入上的小对抗性扰动的影响,这引发了人们对在现实世界中部署此类代理的担
2023-05-03
论文分享:使用生成对抗性网络的照片真实单图像超分辨率
尽管使用更快和更深的卷积神经网络在单幅图像超分辨率的精度和速度上取得了突破,但一个中心问题仍然很大程度上没有解决:当我们以大的放大因子进行超分辨时,我们如何恢复更精细的纹理细节?基于优化的超分辨方法的行为主要由目标函数的选择驱动。最近的工作主要集中在最小化均方重建误
2023-04-12
论文解读( FGSM)《Adversarial training methods for semi-supervised text classification》
论文信息论文标题:Adversarialtrainingmethodsforsemi-supervisedtextclassification论文作者:TaekyungKim论文来源:ICLR2017论文地址:download 论文代码:download视屏讲解:click1 背景1.1 对抗性实例(Adversarialexamples)通过对输入进行小扰动创建的实例,可显著增加机器