首页 > 其他分享 >【Coursera GenAI with LLM】 Week 3 LLM-powered applications Class Notes

【Coursera GenAI with LLM】 Week 3 LLM-powered applications Class Notes

时间:2024-03-22 22:57:03浏览次数:18  
标签:Week powered Notes Coursera external LLM model bit

Model optimizations to improve application performance

  1. Distillation: uses a larger model, the teacher model, to train a smaller model, the student model, we freeze teacher's weights and generate completions, also generate student model's completion, the difference between those 2 completions is Distillation Loss . Student model will adjust its final prediction layer or hidden layer. You then use the smaller model for inference to lower your storage and compute budget.

  2. Quantization: post training quantization transforms a model's weights to a lower precision representation, such as a 16-bit floating point or eight-bit integer. This reduces the memory footprint of your model.

  3. Pruning: removes redundant model parameters that contribute little to the model's performance.

Cheat Sheet

RAG (Retrieval Augmented Generation)

Chain of thought prompting

Program-Aided Language Model (PAL)

  • LLM + Code interpreter --> to solve the problem that LLM can't do math

Orchestrator: can manage the information between LLM, external app and external databases. ex. Langchain

ReAct: it's a format for prompting (?), synergizing reasoning and action in LLMs

  • Thought: reason about the current situation
  • Action: an external task model can carry out from an allowed set of actions--search, lookup, finish
  • Observation: a few example

标签:Week,powered,Notes,Coursera,external,LLM,model,bit
From: https://www.cnblogs.com/miramira/p/18090548

相关文章

  • LLM-通义千问:新能源参考书
    问题一:新能源入门参考书对于新能源技术的学习,以下是一些推荐的入门参考书籍:《新能源概论》:作者孙逢春,该书全面介绍了太阳能、风能、生物质能、海洋能等各种新能源的基本原理、利用技术及其发展趋势,适合初学者了解新能源领域的全貌。《新能源科学与工程导论》:作者张华,该书......
  • LLM进阶——预训练语言模型
    文章目录一、概念二、GPT1、概念2、自回归3、zero-shot三、bert1、概念2、maskedLM一、概念最早的预训练语言模型(plms)是word2vec,现在的模型(gpt&bert)都是基于transformer以下是一些常见的预训练语言模型分类:基于Transformer的模型:BERT(BidirectionalEncoder......
  • 贝尔曼方程【Bellman Equation】
    强化学习笔记主要基于b站西湖大学赵世钰老师的【强化学习的数学原理】课程,个人觉得赵老师的课件深入浅出,很适合入门.第一章强化学习基本概念第二章贝尔曼方程文章目录强化学习笔记一、状态值函数贝尔曼方程二、贝尔曼方程的向量形式三、动作值函数参考资料第......
  • 大型LLM模型语言全面解读-开篇
    目录由于1万字的要求过于庞大,我将先给出论文的大纲以及部分内容的详细撰写,以确保内容的质量和完整性。如果您需要更完整的内容,可以在之后继续输入。大型LLM模型语言全面解读**摘要:**本文旨在对大型语言模型(LargeLanguageModel,简称LLM)进行全面深入的解读,包括其定义、底层原......
  • 全面解读大模型(llm)
    全面解读大型语言模型(LLM,LargeLanguageModels):定义与原理:大型语言模型是一种人工智能模型,基于深度学习技术,能够理解和生成自然语言。它们通过分析大量的文本数据来学习语言的统计规律和模式,从而能够对新的文本输入做出预测和生成回应。这些模型通常是基于神经网络,特......
  • 大模型推理框架 vLLM
    vLLM是一个开源的大模型推理加速框架,通过PagedAttention高效地管理attention中缓存的张量,实现了比HuggingFaceTransformers高14-24倍的吞吐量,就像在操作系统中管理CPU虚拟内存一样NVIDIAFasterTransformer(FT)是一个用于实现基于Transformer的神经网络推理的加速引擎。它包......
  • LLMR:使用大型语言模型实时提示交互式世界
    混合现实的大型语言模型(LLMR),这是一个用于LLMs实时创建和修改交互式混合现实体验的框架。LLMR利用新颖的策略来解决理想的训练数据稀缺的困难情况,或者设计目标需要综合内部动态、直观分析或高级交互性的情况。我们的框架依赖于文本交互和Unity游戏引擎。通过结合场景理解、......
  • LLM如何处理长上下文:Lost in the middle
    论文地址:LostintheMiddle:HowLanguageModelsUseLongContexts论文总结:写prompt的时候,需要注意内容的顺序,把重要的信息放在最前面或者最后面。大型语言模型大有用处,在设计prompt方面,人们通常建议为语言模型提供详尽的任务描述和背景信息。近期的一些语言模型有能力......
  • LLM+Embedding构建问答系统的局限性及优化方案
    LangChain +LLM方案的局限性:LLM意图识别准确性较低,交互链路长导致时间开销大;Embedding不适合多词条聚合匹配等。背景在探索如何利用大型语言模型(LLM)构建知识问答系统的过程中,我们确定了两个核心步骤:将用户提出的问题和知识库中的信息转换成嵌入向量(Embeddings),然后利......
  • LLM-通义千问:户用储能、地面储能
    户用储能和地面储能是两种不同应用场景下的储能技术。户用储能:主要指的是在家庭或者小型商业用户端安装的储能系统,常与分布式光伏等可再生能源发电设备配套使用。其主要功能包括:储存太阳能、风能等产生的多余电力,在无光照或风力较弱时供应电能,以达到平滑负荷、削峰填谷、提高自......