首页 > 其他分享 >Awesome-LM-SSP学习资料大全 - 大型语言模型安全、隐私与保障资源汇总

Awesome-LM-SSP学习资料大全 - 大型语言模型安全、隐私与保障资源汇总

时间:2024-09-11 15:53:34浏览次数:11  
标签:Awesome LM SSP 隐私 模型 资源

Awesome-LM-SSP学习资料大全 - 大型语言模型安全、隐私与保障资源汇总

Awesome-LM-SSP是一个致力于收集大型语言模型(LLM)安全性、隐私性和可靠性相关资源的开源项目。本文将为大家介绍该项目的主要内容和学习资源,帮助读者快速了解和使用这个宝贵的知识库。

项目简介

Awesome-LM-SSP由清华大学计算机系实验室(ThuCCSLab)发起维护,旨在整理大型模型(尤其是多模态大模型)可信性相关的研究资源,涵盖安全性、隐私性等多个维度。

Awesome-LM-SSP项目logo

该项目目前处于持续更新中,主要通过人工收集整理相关资源。截至目前,项目已收录超过1000篇相关论文,并提供了多个分类目录方便查阅。

主要资源分类

Awesome-LM-SSP项目将收集的资源分为以下几个主要类别:

  1. 论文(1038篇)

    • 安全性(602篇)
    • 隐私性(274篇)
    • 可靠性(162篇)
  2. 调研报告(31篇)

  3. 工具包(9个)

  4. 竞赛信息(5个)

  5. 评测榜单(3个)

  6. 相关书籍(1本)

重点论文分类

在论文资源方面,项目按照不同研究主题进行了细分:

安全性相关:
  • 越狱攻击(Jailbreak)
  • 对齐(Alignment)
  • 深度伪造(Deepfake)
  • 伦理问题(Ethics)
  • 公平性(Fairness)
  • 幻觉(Hallucination)
  • 提示注入(Prompt Injection)
  • 有害内容(Toxicity)
隐私性相关:
  • 版权问题(Copyright)
  • 数据重建(Data Reconstruction)
  • 成员推理攻击(Membership Inference Attacks)
  • 模型提取(Model Extraction)
  • 隐私保护计算(Privacy-Preserving Computation)
  • 遗忘学习(Unlearning)
可靠性相关:
  • 对抗样本(Adversarial Examples)
  • 数据投毒与后门(Poison & Backdoor)
  • 系统安全(System)

使用指南

  1. 访问项目GitHub主页了解最新动态。

  2. 查看Collections部分,可以直接跳转到感兴趣的资源分类。

  3. 对于论文资源,可以进入对应的主题页面(如Jailbreak)查看详细列表。

  4. 关注News部分了解最新收录情况。

  5. 如果有好的资源推荐,可以通过GitHub Issues提交。

Awesome-LM-SSP项目为研究大型语言模型安全性、隐私性和可靠性的学者和工程师提供了宝贵的知识库。无论您是刚接触这一领域的新手,还是寻找最新研究进展的专家,都可以在这里找到有价值的参考资料。希望本文能帮助您更好地利用这一资源,推动大型语言模型的可信AI研究不断向前发展。

项目链接:www.dongaigc.com/a/awesome-lm-ssp-resources

https://www.dongaigc.com/a/awesome-lm-ssp-resources

www.dongaigc.com/p/ThuCCSLab/Awesome-LM-SSP

https://www.dongaigc.com/p/ThuCCSLab/Awesome-LM-SSP

标签:Awesome,LM,SSP,隐私,模型,资源
From: https://blog.csdn.net/Nifc666/article/details/142105976

相关文章

  • 如何用 Helm 安装指定版本的 GitLab Runner?
    本分分享如何使用Helm来在Kubernetes集群上安装极狐GitLabRunner。整体步骤分为:Helm的安装、vaules.yaml文件的配置、Runner的安装、Runner的测试。极狐GitLab为GitLab在中国的发行版,中文版本对中国用户更友好。极狐GitLab支持一键私有化部署,可以在ubuntu、centos......
  • Base/chat/instruct in LLM
    Base/chat/instructhttps://blog.csdn.net/qq_43127132/article/details/140447880大模型库中的base、chat、instruct和4bit通常指的是不同类型或配置的预训练语言模型。它们的区别主要在于训练目标、用途和模型参数的精度。以下是对这些术语的解释:1.Base模型(base)   ......
  • RAG与LLM原理及实践(17)---Docker Redis & Python Usage
    目录背景Redis环境download修改镜像RunRedisCodingpythonredisdownload基本使用描述完整代码运行结果高阶用法序列化的方式 Snapshot与AOF快照(RDB)AOF(Append-OnlyFile)代码总结发布与订阅描述     代码运行结果注意事项解释Transanction......
  • LLM 工程师入门:生成式 AI 的简易指南
    大模型发展了近两年,BaihaiIDP也分享了近百篇LLM各环节的技术洞察,有前沿探讨、有落地实践、有应用经验。但回头来看,我们似乎从来没有认真、从0开始探讨过LLM的基本原理。最近,一些企业客户和伙伴来询问,是否有LLM的从0到1的科普贴。他们说:"虽然在很多场景中,L......
  • 北大&阿里最新LLM偏好学习调研报告
    《TowardsaUnifiedViewofPreferenceLearningforLargeLanguageModels:ASurvey》链接:https://arxiv.org/pdf/2409.02795github:https://github.com/kbsdjames/awesome-LLM-preference-learning摘要大型语言模型(LLMs)展现出强大的能力,但要实现与人类偏好的对齐,往往......
  • RLPF:用于LLM用户摘要的预测反馈
    《RLPF:ReinforcementLearningfromPredictionFeedbackforUserSummarizationwithLLMs》链接:https://arxiv.org/pdf/2409.04421文章介绍了一种新的强化学习方法RLPF(ReinforcementLearningfromPredictionFeedback),用于优化大型语言模型(LLMs)生成的用户摘要,以提高下......
  • 【LLM训练系列】从零开始训练大模型之Phi2-mini-Chinese项目解读
    一、前言本文主要是在复现和实践Phi2-mini-Chinese后,简要分析下Phi2-mini-Chinese这个项目,做一个学习实战总结。原文发布于知乎:https://zhuanlan.zhihu.com/p/718307193,转载请注明出数。Phi2-mini-Chinese简介Phi2-Chinese-0.2B从0开始训练自己的Phi2中文小模型,支持接入langc......
  • 2.3.1 ChatGLM3简介与安装
    安装:pipinstallmodelscope pipinstalltorch==2.0.1torchaudiotorchvision-ihttps://pypi.tuna.tsinghua.edu.cn/simple/pipinstallmodelscope-ihttps://pypi.tuna.tsinghua.edu.cn/simple/pipinstalltransformers-ihttps://pypi.tuna.tsinghua.edu.cn/simp......
  • BinLLM论文阅读笔记
    Text-likeEncodingofCollaborativeInformationinLargeLanguageModelsforRecommendation论文阅读笔记Abstract现存的问题:​ 在调整用于推荐的大型语言模型(LLMRec)时,整合协作信息至关重要。现有的方法通过从头开始学习LLM潜在空间中的协作嵌入或通过外部模型的映射来......
  • LLM面试题汇总
    LLM相关LLM基础zeroshot、oneshot、threeshot是什么zeroshot:零样本学习。对于模型没有见过的图像,通过已有的图像和特征相关联,从而判别新的图片fewshot:少样本学习。通过判断测试样本与训练样本的相似性,来推测测试样本属于什么类bf16和fp16有什么区别LLM微......