本文是LLM系列文章,针对《ATTACKS ON THIRD-PARTY APIS OF LARGE LANGUAGE MODELS》的翻译。
对大型语言模型第三方api的攻击
摘要
大型语言模型(LLM)服务最近开始提供一个插件生态系统来与第三方API服务交互。这项创新增强了LLM的能力,但也带来了风险,因为这些由各种第三方开发的插件不容易被信任。本文提出了一种新的攻击框架,用于检查包含第三方服务的LLM平台中的安全和安全漏洞。将我们的框架专门应用于广泛使用的LLM,我们可以识别跨第三方API的各种域的真实恶意攻击,这些攻击可以不知不觉地修改LLM输出。本文讨论了第三方API集成带来的独特挑战,并为提高LLM生态系统的安全性提供了战略可能性。我们的代码发布于https://github.com/vk0812/Third-Party-Attacks-on-LLMs.
1 引言
2 提出的流水线
3 实验
4 结论
我们的论文介绍了对集成到LLM生态系统中的第三方API的三种攻击。随着LLM越来越多地配备API,通过访问最新信息、执行复杂计算和通过API调用外部服务来更好地响应用户请求,这种集成变得更加危险。它还为LLM生态系统内的安全研究开辟了更多可能性,超越了孤立的语言模型和API。未来的工作涉及各种攻击方法、针对第三方API攻击的防御机制设计,以及多个第三方API交互引起的安全问题。
标签:插件,THIRD,LANGUAGE,APIS,攻击,API,LLM,第三方,生态系统 From: https://blog.csdn.net/c_cpp_csharp/article/details/140436964