• 2024-06-23AI 大模型企业应用实战(06)-初识LangChain
    LLM大模型与AI应用的粘合剂。1langchain是什么以及发展过程LangChain是一个开源框架,旨在简化使用大型语言模型构建端到端应用程序的过程,也是ReAct(reason+act)论文的落地实现。2022年10月25日开源54K+star种子轮一周1000万美金,A轮2500万美金11个月里累计发布200多次,提交4
  • 2024-06-22MCT Self-Refine:创新集成蒙特卡洛树搜索 (MCTS)提高复杂数学推理任务的性能,超GPT4,使用 LLaMa-3 8B 进行自我优化
  • 2024-06-212024最新AI大模型-LLm八股合集(十二)-Transformer模型
    更多2024最新AI大模型-LLm八股合集可以拉到文末!!!相对位置编码相对位置并没有完整建模每个输入的位置信息,而是在算Attention的时候考虑当前位置与被Attention的位置的相对距离,由于自然语言一般更依赖于相对位置,所以相对位置编码通常也有着优秀的表现。对于相对位置编码来说,
  • 2024-06-2110条提升大模型任务微调效果的tricks
    在大型语言模型(LLMs)的研究和应用中,如何通过微调来适应特定任务是一个关键问题。尽管提示工程(PE)在提升LLMs的零样本学习和上下文内学习方面取得了显著成效,但关于如何设计有效的微调样本以进一步提升LLMs性能的研究还相对欠缺。为解决上述问题,提出了样本设计工程SDE(SampleDe
  • 2024-06-20大模型面试看完这些,我直接进入字节了
    开篇大家好!我知道你们中有很多人都梦想着能够进入像字节跳动这样的顶级科技公司工作,对吧?别急,别慌,今天我就来给大家传授一下我的“独门秘籍”——如何通过深入研究和准备大模型技术,成功赢得字节跳动的面试机会并最终拿到offer!在人工智能飞速发展的今天,大模型技术无疑是行业
  • 2024-06-192024 AI大模型 常问的问题以及答案(附最新的AI大模型面试大厂题 )
    前言在2024年AI大模型的面试中,常问的问题以及答案可能会涵盖多个方面,包括AI大模型的基础知识、训练过程、应用、挑战和前沿趋势等。由于我无法直接附上174题的完整面试题库及其答案,我将基于提供的信息和当前AI大模型领域的热点,给出一些常见的问题和答案示例。1.基础知识
  • 2024-06-18揭秘In-Context Learning(ICL):大型语言模型如何通过上下文学习实现少样本高效推理[示例设计、ICL机制详解]
    揭秘In-ContextLearning(ICL):大型语言模型如何通过上下文学习实现少样本高效推理[示例设计、ICL机制详解]自GPT-3首次提出了In-ContextLearning(ICL)的概念而来,ICL目前已经变成了一种经典的LLMs使用方法。ICL,即In-ContextLearning,是一种让大型语言模型(LLMs)通过少量标注样本在
  • 2024-06-18大型语言模型的“不知道”:一种新的不确定性敏感训练方法
    大型语言模型(LLMs)在各种任务中展现出惊人的能力,但仍然面临着诸如幻觉等挑战。幻觉是指LLMs生成与事实不符或毫无意义的响应。造成幻觉的一个潜在原因是缺乏相关知识或上下文。因此,一个很有前景的解决方案是指示LLMs在问题超出其知识范围或提供的上下文时,回答“我不知道”。
  • 2024-06-17如何高效使用大型语言模型 LLMs 初学者版本 简单易上手
    第一条也是最重要的一条规则是永远不要要求LLM提供你无法自己验证的信息,或让它完成你无法验证其正确性的任务。唯一例外的情况是那些无关紧要的任务,例如,让大型语言模型提供公寓装修灵感之类的是可以的。首先请看两个范例不佳示范:“使用文献综述最佳实践,总结过去十
  • 2024-06-15大模型的忠诚度,字节开发seed-tts,提示词攻击介绍
    一支烟花官网:https://agifun.love智源社区《管理世界》黄甄魏娜梁正丨从三十余年纵向变迁看跨部门数据共享效果的动态演变机制点击阅读原文来源:http://mp.weixin.qq.com/s?__biz=MzU4MzYxOTIwOQ==&mid=2247510245&idx=1&sn=7942001e12be958e8b21a0d2c9de7723&chksm=f
  • 2024-06-14解锁LLMs的“思考”能力:Chain-of-Thought(CoT) 技术推动复杂推理的新发展
    解锁LLMs的“思考”能力:Chain-of-Thought(CoT)技术推动复杂推理的新发展1.简介Chain-of-Thought(CoT)是一种改进的Prompt技术,目的在于提升大模型LLMs在复杂推理任务上的表现,如算术推理(arithmeticreasoning)、常识推理(commonsensereasoning)、符号推理(symbolicreasoning)。起
  • 2024-06-11Auto Arena of LLMs: Automating LLM Evaluations with Agent Peer-battles and Committee Discussions
    1.引言大语言模型(LLMs)发展迅速,亟需可靠的评估方法。静态数据集存在污染风险,人工评估平台耗时费力。提出自动、可靠、可信的评估框架:Auto-ArenaofLLMs(Auto-Arena)。2.相关工作自动评估方法:静态数据集和基于模型的评估。人工评估平台:ChatbotArena,存在耗时和语言
  • 2024-06-09BOT算不算作弊
    https://arxiv.org/abs/2406.042711.引言介绍大型语言模型(LLMs)在推理任务中的局限性。概述现有推理方法的分类和局限性:单次查询推理和多查询推理。提出BufferofThoughts(BoT)框架,旨在提高LLMs的推理准确性、效率和鲁棒性。2.相关工作和讨论回顾检索增强语言
  • 2024-06-07今日arXiv最热大模型论文:大模型都能怎么用?中南大学最新综述:大模型时代的自然语言处理
    还记得2022年末ChatGPT的横空出世,带来了整个NLP乃至AI领域的震动,随后如LLaMA、ChatGLM、Qwen等类ChatGPT大模型(LLM)开始如雨后春笋般涌现,这些先进的模型不仅展示了在零样本学习中的出色表现,还在多种NLP任务中展示了其强大的能力,例如文本摘要、机器翻译、信息提取和情感分析等,使
  • 2024-06-06100道大模型面试八股文
    算法暑期实习机会快结束了,校招大考即将来袭。当前就业环境已不再是那个双向奔赴时代了。求职者在变多,岗位在变少,要求还更高了。最近,我们陆续整理了很多大厂的面试题,帮助球友解惑答疑和职业规划,分享了面试中的那些弯弯绕绕。分享100道大模型面试八股文,喜欢记得点赞、收藏
  • 2024-06-01AI | LLaMA-Factory 一个好用的微调工具
    ‘’LLamaFactory,这个工具能够高效且低成本地支持对100多个模型进行微调。LLamaFactory简化了模型微调的过程,并且易于访问,使用体验友好。此外,它还提供了由Hiyouga提供的HuggingFace空间,可用于对模型进行微调。下载LLaMA-Factory​#下载LLaMA-Factorygitclone
  • 2024-05-29通过提示工程将化学知识整合到大型语言模型中
    在当今快速发展的人工智能领域,大型语言模型(LLMs)正成为科学研究的新兴工具。这些模型以其卓越的语言处理能力和零样本推理而闻名,为解决传统科学问题提供了全新的途径。然而,LLMs在特定科学领域的应用面临挑战,主要是因为它们缺乏对复杂科学概念的深入理解。为了克服这一难题,本文
  • 2024-05-13【译】使用 GitHub Copilot 作为你的编码 GPS
    GitHubCopilot是一个改变游戏规则的人工智能助手,可以彻底改变您在VisualStudio中的编码流程。在我们的视频系列中,Bruno Capuano探讨了这个智能编码伙伴如何帮助您更有效地编写代码,同时保持质量和准确性。Copilot:是助手,而不是替代品Bruno强调,GitHubCopilot旨
  • 2024-05-09论文推荐:用多词元预测法提高模型效率与速度
    这是4月发表的论文《Better&FasterLargeLanguageModelsviaMulti-tokenPrediction》,作者们提出了一种创新的多词元预测方法,该方法在提高大型语言模型(LLMs)的样本效率和推理速度方面展示了显著优势。本文将对该论文进行详细的推荐和分析,探讨其理论贡献、实验设计以及对未来研
  • 2024-04-27go调用langchain
    openai版本设置环境变量OPENAI_API_KEYpackagemainimport("context""fmt""log""github.com/tmc/langchaingo/llms""github.com/tmc/langchaingo/llms/openai")funcmain(){ctx:=context.Backgroun
  • 2024-04-15LangChain轻松入门和开发实践
    LangChain是一个开发语言模型应用的框架。LangChain能够简化开发与语言模型工作流中的复杂部分,帮助开发人员能够更轻松地进行开发,并定制满足需求的应用。LangChain有两大优点,一是它能将外部数据,如文件、其他应用、API数据等,无缝地集成到语言模型中;二是它通过代理功能,让语言模型
  • 2024-04-14LlamaIndex 安装与配置(不含OpenAI)
     pipinstallllama-index这是一个包含以下组件的启动包:llama-index-corellama-index-legacy(暂时包含)llama-index-llms-openaillama-index-embeddings-openaillama-index-program-openaillama-index-question-gen-openaillama-index-agent-openaillama-index-rea
  • 2024-04-14如何使用 LangChain 构建基于LLMs的应用——入门指南
    大型语言模型(LLMs)是非常强大的通用推理工具,在各种情况下都非常有用。但是,与构建传统软件不同,使用LLMs存在一些挑战:调用往往是长时间运行的,并且随着可用输出而逐步生成输出。与固定参数的结构化输入(例如JSON)不同,它们采用非结构化和任意的自然语言作为输入。它们能够“理解”
  • 2024-04-10GitHub问题解决新突破,复旦大学MAGIS框架大幅超越GPT-4
    获取本文论文,请关注公众号【AI论文解读】回复: 论文解读引言:GitHub问题解决的挑战与LLMs的潜力在软件开发的演进过程中,解决GitHub仓库中出现的问题是一个复杂的挑战。这不仅涉及到新代码的加入,还要维护现有功能的稳定运行。大型语言模型(LLMs)在代码生成和理解方
  • 2024-04-09最新语言大模型综述 Large Language Models A Survey
    文章目录摘要I.引言II.大型语言模型A.早期预训练神经语言模型B.大型语言模型家族C.其他代表性LLMsIII.LLM是如何构建的A.主要LLM架构B.数据清洗C.分词D.位置编码E.模型预训练F.微调和指令微调G.对齐H.解码策略I.成本效益的训练/推理/适应/压缩IV.LLM如