首页 > 其他分享 >学习微调大语言模型 LLM 时的碎碎念

学习微调大语言模型 LLM 时的碎碎念

时间:2024-07-16 17:56:31浏览次数:14  
标签:检索 中文 语言 模型 微调 记忆 LLM 碎念

要完全解决幻觉问题,就要让模型的推理有足够的上下文,而不是凭空编造。这一点需要从训练时就要做到。就是说,例如 role play 的微调,若角色的回复包含了某种状态(天气如何、吃没吃饭等),这些状态不应该是凭空出现的,而是已经出现在上文。我的设想是,模型应当会主动索求状态的说明文字,若没有,也应该主动写一段说明文字再进行回复。即使这段主动写出的说明文字出现幻觉,也会可控得多。

记忆压缩的问题算解决了的话,接下来就是最令人头疼的问题:检索记忆。使用 RAG 那种检索 embedding 的方法总感觉不准确,毕竟假设是用用户输入作为 embedding 进行检索,万一用户输入含噪声多就会出问题,况且这样检索记忆不具有连续性,无法连续检索相关记忆。Graph RAG 或是智能体一类的解决方法有些拐弯抹角,应该有那种更直接的、类似于人脑的回忆机制的实现方法。

我微调模型的初衷之一还是想获得一个符合中文书写习惯的语言模型。或是说,符合我的习惯。现在的语言模型,诸如 chatgpt,写出的中文都有浓郁的英翻中韵味。不是说有问题,就是这样遣词造句让人莫名不舒服。具体的问题包括冗余的人称代词、突兀的定词、非常“英式”的语序等。像是“为了确保您享受到更优越的性能,我们建议您从支持的旧版本模型尽快迁移至新版本”,从中文的角度来说完全可以删改为“为了享受到更优越的性能,请尽快从旧版本模型迁移至新版本”。

也许现在基于 Transformers Decoder 的大语言模型只是剑走偏锋,依托巨大参数量巨大规模的优势一窥通用人工智能 AGI 的一角。大语言模型本质依然是个概率黑盒子,强大的泛化能力是基于常人一辈子都难看完的训练语料拟合而来的。不过,即使是这一角,足以让人兴奋不已。

标签:检索,中文,语言,模型,微调,记忆,LLM,碎念
From: https://www.cnblogs.com/chirp/p/18305809

相关文章

  • LLM大模型:推理优化-知识蒸馏
      1、有些模型比较大,推理时的效果还不错,但非常耗费计算资源;并且产生token的速度也很慢,大概1秒1个token(我的RAG在最后一步使用的secGPT-13B大概就是这个速度),一个问题回答完毕要耗费分钟级别的时间,用户直接抓狂,继续提升推理的速度!大模型本质是大量的矩阵运算,想要提高效......
  • 【01】LLaMA-Factory微调大模型——基础环境配置
    为了构建法律领域的垂直应用大模型,从本文起记录使用LLaMA-Factory微调大模型的过程,以期UU们可以复刻与应用。大语言模型统一高效微调框架(LLaMA-Factory)的详解介绍可见:LLaMA-Factory/README_zh.mdatmain·hiyouga/LLaMA-Factory·GitHubLLaMA-Factory框架旨在简化大型语......
  • Llama - 微调
    本文翻译整理自:https://llama.meta.com/docs/how-to-guides/fine-tuning文章目录微调实验跟踪RecipesPEFTLoRAtorchtuneHuggingFacePEFTLoRAQLoRA微调如果你想通过编写代码来学习,强烈建议你查看了解Llama3notebook。这是一个开始对MetaLlama进行最常见......
  • Unsloth 微调 Llama 3
    本文参考:https://colab.research.google.com/drive/135ced7oHytdxu3N2DNe1Z0kqjyYIkDXp改编自:https://blog.csdn.net/qq_38628046/article/details/138906504文章目录一、项目说明安装相关依赖下载模型和数据二、训练1、加载model、tokenizer2、设置LoRA训练参数3......
  • 代码随想录算法训练营第六十六天 | Bellman_ford 队列优化算法(SPFA)、Bellman_ford之
    Bellman_ford队列优化算法(SPFA)题目链接:https://kamacoder.com/problempage.php?pid=1152文档讲解:https://programmercarl.com/kamacoder/0094.%E5%9F%8E%E5%B8%82%E9%97%B4%E8%B4%A7%E7%89%A9%E8%BF%90%E8%BE%93I-SPFA.html思路Bellman_ford算法每次松弛都是对所......
  • 代码随想录算法训练营第六十五天 | dijkstra(堆优化版)精讲、Bellman_ford 算法精讲、复
    dijkstra(堆优化版)精讲—卡码网:47.参加科学大会题目链接:https://kamacoder.com/problempage.php?pid=1047文档讲解:https://programmercarl.com/kamacoder/0047.%E5%8F%82%E4%BC%9Adijkstra%E5%A0%86.html思路当节点数多,边数少(稀疏图)时,可以考虑从边的角度出发,用堆来......
  • 面试准备【LLM】
    目录其他注意力过拟合的表现有哪些?BN训练和测试的区别在哪里?梯度下降的公式?反向传播优化器&Adam均方误差损失交叉熵损失梯度消失问题梯度爆炸问题权重正则化过拟合分词器BERT掩码语言建模(MLM)下一个句子预测NextSentencePrediction(NSP)BERT微调BERT模型创新BERT局限性BER......
  • 《昇思25天学习打卡营第17天|热门LLM及其他AI应用-基于MindNLP+MusicGen生成自己的个
    基于MindNLP+MusicGen生成自己的个性化音乐MusicGen是来自MetaAI的JadeCopet等人提出的基于单个语言模型(LM)的音乐生成模型,能够根据文本描述或音频提示生成高质量的音乐样本,相关研究成果参考论文《SimpleandControllableMusicGeneration》。MusicGen是一种单个语言模......
  • 如何与 LLMs 有效沟通?6位数提示词工程师经验(LLMs 提示词小白必学)
    除非你活在太空里,完全脱离了现代社交媒体和新闻的关注,否则你不太可能错过大型语言模型    欢迎来到云闪世界。除非你活在太空里,完全脱离了现代社交媒体和新闻的关注,否则你不太可能错过大型语言模型(LLM)的突飞猛进带给我们生活中的革命性进步。LLM的演变。......
  • LLM用于时序预测真的不行,连推理能力都没用到
    语言模型真的能用于时序预测吗?根据贝特里奇头条定律(任何以问号结尾的新闻标题,都能够用「不」来回答),答案应该是否定的。事实似乎也果然如此:强大如斯的LLM并不能很好地处理时序数据。时序,即时间序列,顾名思义,是指一组按照时间发生先后顺序进行排列的数据点序列。在很多领......