首页 > 其他分享 >LLM开发的5个要点为你节省50%时间

LLM开发的5个要点为你节省50%时间

时间:2023-06-25 14:24:32浏览次数:29  
标签:数据库 50% 开发 LLM 要点 数据 Microsoft 向量

图片

图片

推特博主 @agishaun 基于上方内容,分享了他自己的在千余小开发实践中的经验和收获,帮助你少走弯路:

1. 每个人都可以学会提示词

学习使用 LLM 进行开发,可以节约节省大量时间。因此,尽可能将LLM整合到你的开发流程中,建议从 Microsoft Copilot 开始。

2. 数据,数据,还是数据!

数据质量是LLM开发中被低估的因素。记住!「Garbage in Garbage out (输入是垃圾,输出也是垃圾)」适用于任何软件系统,而LLM仍然是软件系统。

3. 向量数据库不能解决一切问题

一个好的向量数据库,也不能解决所有的数据质量问题。使用 LLAMA 或者 LangChain 框架帮助清理数据并正确地导入数据更为重要。

4. 通过艰难的方式学习 LLM

框架会加速你的开发过程,但它会把实现的细节隐藏起来。如果你刚开始LLM的开发旅程,可以尝试在没有任何框架的情况下开发,或者使用像  Microsoft Guidance 这样的轻框架。

5. 如何正确使用 LLM?

图片

如何正确地使用大型语言模型(LLM)?如何从原型项目毕业?

(长文) 在我的上一条推文中提供了一些背景,我注意到了一个在创建AI应用过程中的模式,它始于这样的想法:“我有这些数据,如果能有个聊天机器人能处理这些数据就好了”。然后,工程师将这些数据转录为.txt文件或类似的格式,生成一个嵌入向量,然后存储在向量数据库中。接着,采用语义搜索从向量数据库中检索数据,并使用像Langchain QA这样的工具进行对话。最后,微调提示来优化响应。我认为,这种方法从根本上说是错误的。

相反,我提出了一个备选的开发周期:

  1. 游乐场提示设计:首先,确定你试图通过大型语言模型(LLM)解决的问题。思考你如何指导LLM回答特定的查询。记住,尽管LLM试图"完成",你的目标应该是"成功"。

  2. 上下文数据设计:设计了足够的提示之后,考虑哪些数据可以帮助LLM提供更好的回应。这些就是你想要喂入到上下文窗口的"上下文数据",以便LLM生成响应。在这个阶段,你不需要向量数据库、Langchain或任何库,只需要设计好的提示。

  3. 数据库(DB)索引和搜索:下一步是从任何系统(例如文件系统或互联网)有效地检索上下文数据。我用DB作为一个例子。最常见的解决方案是像@milvusio、@trychroma、@supabase这样的向量数据库,它们与自然语言协同工作。然而,关注点应该是搜索的质量,因为它大大影响数据的相关性。不相关的数据肯定会导致你的LLM产生幻觉。

  4. 数据摄取:在这里,清理你的数据非常重要。任何软件都遵循“垃圾进,垃圾出”的原则,GenAI应用程序也不例外。摄取的数据应该是干净的,结构良好的,易于理解的,并直接与查询相关的。

  5. 框架和服务:这是最直接的部分。使用传统的软件工程技巧或ChatGPT来设置。像@LangChainAI、@llama_index、Microsoft Guidance和Microsoft Semantic Kernel这样的LLM工具可以加速你的开发过程。

最后,我想强调提示工程的重要性,我已经投入了大量的时间。我开发了一个chrome扩展,增强了我与OpenAI游乐场的互动,功能包括csv下载和提示差异(类似于GitHub)。如果我收到足够的转发和点赞,我会考虑开源它!

 

一般工程师面对大模型开发时,一般是先准备数据,然后试图存储,再放入LLM 中编排。而 @agishaun认为,更优化的流程可以降低 50% 的开发时间,减少 90% 的错误率,是因为这样开发离LLM 更近,且可以充分利用LLM 的能力 ⋙ Twitter @agishaun[7]

标签:数据库,50%,开发,LLM,要点,数据,Microsoft,向量
From: https://www.cnblogs.com/botai/p/LLM-development.html

相关文章

  • 如何快速高效的使用 LLM 构建应用程序
    原文:https://a16z.com/2023/06/20/emerging-architectures-for-llm-applications/大型语言模型是一种强大的新原语,用于构建软件。但是由于它们如此新颖——并且与普通计算资源的行为方式如此不同——我们并不总是明确知道如何使用它们。在这篇文章中,我们分享了一种新兴的LLM应用......
  • 什么时候需要微调你的大模型(LLM)?
    前言在AI盛起的当下,各类AI应用不断地出现在人们的视野中,AI正在重塑着各行各业。相信现在各大公司都在进行着不同程度的AI布局,有AI大模型自研能力的公司毕竟是少数,对于大部分公司来说,在一款开源可商用的大模型基础上进行行业数据微调也正在成为一种不错的选择。本文主要用于向大......
  • LTV-M501-ASEMI代理台湾光宝高速光耦LTV-M501
    编辑:llLTV-M501-ASEMI代理台湾光宝高速光耦LTV-M501型号:LTV-M501品牌:台湾光宝封装:SOP-5引脚数量:5类型:光耦特性:台湾光宝、IGBT驱动器、储能专用光耦\高速光耦封装尺寸:如图工作温度:-40°C~85°CLTV-M501描述:LTV-M501高速光电耦合器由高效AlGaAs发光二极管和高速光学探测器......
  • Python潮流周刊#8:Python 3.13 计划将解释器提速 50%!
    你好,我是猫哥。这里每周分享优质的Python及通用技术内容,部分为英文,已在小标题注明。(标题取自其中一则分享,不代表全部内容都是该主题,特此声明。)首发于我的博客:https://pythoncat.top/posts/2023-06-24-weekly......
  • 寻址(P50)
    MOVBL,BUF+2;0DH->BL;方式1 MOVSI,OFFSETBUF;方式2 MOVBX,2[SI] ; MOVEAX,OFFSETBUF;方式3 MOVBX,[EAX+2]masm611;MOVEAX,OFFSETBUF;方式3MOVBX,[EAX+2]改成MOVAX,OFFSETBUF;不行!......
  • 2023年最新5000道校招常用编程面试题分享(附详细题解)
    截止到2021年最新,本资源整理了近5000道校招常用面试题,并附带详细的解题思路及代码,包含leetcode,校招笔试题,面试题,算法题,语法题。持续更新中。。。目录内容截图......
  • 深度学习算法相关岗-校招、社招、实习-面试知识要点及答案分享
        本文主要整理了深度学习相关算法面试中经常问到的一些核心概念,并给出了细致的解答,分享给大家。互联算法工程师面试必读书籍推荐百面深度学习算法工程师带你去面试作者:诸葛越江云胜当当购买感受野    后一层神经元在前一层神经元的感受空间,如下图所示:    注意:小卷......
  • 自然语言处理顶会ACL 2020会议核心要点分享
        今年受疫情影响,ACL只能举行线上虚拟会议,因此不能近距离跟行业学者们进行交流。但我任然想把我了解到的ACL的争取趋势和研究动态分享处理,因而有了这篇文章。     这些年来ACL的总体趋势    在开始讨论整个趋势之前之前,让我们先看一下ACL会议的一些总体统计数据。今......
  • 历史最全ChatGPT、LLM相关书籍、论文、博客、工具、数据集、开源项目等资源整理分享
    ChatGPT是一个生成型预训练变换模型(GPT),使用基于人类反馈的监督学习和强化学习在GPT-3.5之上进行了微调。这两种方法都使用了人类训练员来提高模型的性能,通过人类干预以增强机器学习的效果,从而获得更为逼真的结果。在监督学习的情况下,模型被提供了这样一些对话,在对话中训练......
  • 2021年暑期实习、秋招深度学习算法岗面试要点及答案分享
        本文主要整理了深度学习相关算法面试中经常问到的一些核心概念,并给出了细致的解答,分享给大家。感受野    后一层神经元在前一层神经元的感受空间,如下图所示:    注意:小卷积核(如33)通过多层叠加可取得与大卷积核(如77)同等规模的感受野,此外采用小卷积核有两个优势:  ......