• 2024-06-21nuxt2 国际化i18n使用
    安装依赖,项目nuxt2版本nuxt2.15.8cnpmi@nuxtjs/[email protected]配置全局语言exportconststate=()=>({language:"en",token:"",});exportconstmutations={setLanguage(state,language){state.language=language;
  • 2024-06-21大型语言模型驱动的智能体:从诞生到流行
    近年来,人工智能领域取得了令人瞩目的进展,其中大型语言模型(LLM)的出现被认为是通向通用人工智能(AGI)的关键一步。LLM拥有强大的语言理解和生成能力,为构建能够感知环境、做出决策并执行行动的智能体提供了坚实的基础。本文将深入探讨LLM驱动的智能体,从其构建、应用到社会模
  • 2024-06-17Dual Instruction Tuning with Large Language Models for Mathematical Reasoning
    本文是LLM系列文章,针对《DualInstructionTuningwithLargeLanguageModelsforMathematicalReasoning》的翻译。数学推理的大语言模型双指令调优摘要1引言2方法3实验4结论局限性摘要最近的进展突出了利用思想链(CoT)数据进行数学推理任务的大型语言模型(LLM)
  • 2024-06-17Large Language Models as Financial Data Annotators: A Study on Effectiveness and Efficiency
    本文是LLM系列文章,针对《LargeLanguageModelsasFinancialDataAnnotators:AStudyonEffectivenessandEfficiency》的翻译。作为财务数据注释器的大型语言模型:有效性和效率研究摘要引言相关工作数据集实验结果讨论局限性结论摘要由于缺乏领域专
  • 2024-06-13ALoRA: Allocating Low-Rank Adaptation for Fine-tuning Large Language Models
    本文是LLM系列文章,针对《ALoRA:AllocatingLow-RankAdaptationforFine-tuningLargeLanguageModels》的翻译。ALoRA:为微调大型语言模型分配低秩自适应摘要1引言2相关工作3方法4实验5结论摘要参数有效微调(PEFT)在大语言模型时代因其有效性和效率而
  • 2024-06-13Aligning with Human Judgement: The Role of Pairwise Preference in Large Language Model Evaluators
    本文是LLM系列文章,针对《AligningwithHumanJudgement:TheRoleofPairwisePreferenceinLargeLanguageModelEvaluators》的翻译。与人类判断相一致:配对偏好在大型语言模型评估者中的作用摘要1引言2LLM计算器校准的局限性3不确定性引导的成对偏好搜索4
  • 2024-06-13monaco-editor 的 Language Services
    我们是袋鼠云数栈UED团队,致力于打造优秀的一站式数据中台产品。我们始终保持工匠精神,探索前端道路,为社区积累并传播经验价值。本文作者:修能这是一段平平无奇的SQL语法SELECTid,sum(name)FROMstudentGROUPBYidORDERBYid;如果把这段代码放到monaco-editor(@
  • 2024-06-12论文解读——AAMAS2024《OPEx: A Large Language Model-Powered Framework for Embodied Instruction Following 》
    一、研究背景  具身指令执行(EmbodiedInstructionFollowing,EIF)是指在一个特定的物理或虚拟环境中,使能自主代理(如机器人或虚拟代理)根据自然语言指令来执行复杂的任务。这种研究领域集中于探索自然语言理解与机器执行能力的结合,尤其是在模拟家庭或日常环境中,如何使代理
  • 2024-06-12Hungry Hungry Hippos Towards Language Modeling with State Space Models
    目录概H3代码FuD.Y.,DaoT.,SaabK.K.,ThomasA.W.,RudraA.andReC.Hungryhungryhippos:towardslanguagemodelingwithstatespacemodels.2022.概Mamba系列第五作:H3.H3感觉H3是之前的linearattention和SSM的一个结合,它所做的只是把line
  • 2024-06-12LISA: Reasoning Segmentation via Large Language Model
    Motivation&Abs现有的感知系统依赖人类的指示,难以主动推理以理解人类意图。新任务:reasoningsegmentation,模型需要根据给定的复杂/具有隐含意义的文本输出相应的segmask。新的benchmark:包含1000张左右图像的数据集(image-instruction-mask)。模型:LISA,既有LLM的语言生成能力
  • 2024-06-12Arcee’s MergeKit: A Toolkit for Merging Large Language Models
    本文是LLM系列文章,针对《Arcee’sMergeKit:AToolkitforMergingLargeLanguageModels》的翻译。Arcee的MergeKit:一个用于合并大型语言模型的工具包摘要1引言2背景和相关工作3库设计:关键设计原则4MergeKit的可扩展性5MergeKit的普及性和有效性6结论和
  • 2024-06-12CoLLEGe: Concept Embedding Generation for Large Language Models
    本文是LLM系列文章,针对《CoLLEGe:ConceptEmbeddingGenerationforLargeLanguageModels》的翻译。CoLLEGe:大型语言模型的概念嵌入生成摘要1引言2相关工作3CoLLEGe:概念学习与语言嵌入生成4用于训练CoLLEGe的数据集5实验6结论和讨论摘要当前的语言
  • 2024-06-11Vision-Language Models are Zero-Shot Reward Models for Reinforcement Learning
    发表时间:2024(ICLR2024)文章要点:文章提出用预训练的视觉语言模型作为zero-shot的rewardmodel(VLM-RMs)。好处在于可以通过自然语言来给定一个具体的任务,通过VLM-RMs让强化学习基于reward学习这个任务(usingpretrainedvision-languagemodels(VLMs)aszeroshotrewardmodels
  • 2024-06-06BLIP-2: Bootstrapping Language-Image Pre-training with Frozen Image Encoders and Large Language Mode
    Motivation&Abs端到端大规模视觉语言预训练的开销极大。为此,本文提出了BLIP2,利用现成的冻住的imageencoder以及LLM引导视觉语言预训练。模态差距:通过两阶段训练的轻量级的QueryTransformer(Q-Former)弥补。第一阶段:从冻结的imageencoder引导VL学习;第二阶段:从冻结的LLM引导视
  • 2024-06-04Dated Data: Tracing Knowledge Cutoffs in Large Language Models
    本文是LLM系列文章,针对《DatedData:TracingKnowledgeCutoffsinLargeLanguageModels》的翻译。日期数据:追踪大型语言模型中的知识截断摘要1引言2相关工作3方法4结果5为什么模型与截止日期不一致?6结论摘要已发布的大型语言模型(LLM)通常与声称的
  • 2024-06-04Optimizing Language Augmentation for Multilingual Large Language Models: A Case Study on Korean
    本文是LLM系列文章,针对《OptimizingLanguageAugmentationforMultilingualLargeLanguageModels:ACaseStudyonKorean》的翻译。优化多语言大型语言模型的语言增强——以朝鲜语为例摘要1引言2相关工作3丰富MLLM词汇4LIMA上的指令调整5定量评估6定
  • 2024-06-04Efficient Pruning of Large Language Model with Adaptive Estimation Fusion
    本文是LLM系列文章,针对《EfficientPruningofLargeLanguageModelwithAdaptiveEstimationFusion》的翻译。基于自适应估计融合的大型语言模型的高效修剪摘要1引言2相关工作3方法4实验5结论摘要大型语言模型(LLM)已经成为许多生成下游任务的关键,这
  • 2024-06-02Exercise 05
    Exercise05Exercise05HowisitthatsomanyintergalacticspeciesinmoviesandTVjusthappentospeakperfectEnglish?Theshortansweristhatnoonewantstowatchastarshipcrewspendyears1compilinganaliendictionary.Buttokeepthingscons
  • 2024-06-02Large Language Models are Zero-Shot Rankers for Recommender Systems论文阅读笔记
    LargeLanguageModelsareZero-ShotRankersforRecommenderSystems论文阅读笔记Abstract​ 本工作旨在调查作为推荐系统的排名模型的LLM的能力。我们首先将推荐问题形式化为一个条件排序任务,将顺序交互历史作为条件,并将其他候选生成模型检索到的项目作为候选项。为了解决LL
  • 2024-06-01A Novel Paradigm Boosting Translation Capabilities of Large Language Models
    本文是LLM系列文章,针对《ANovelParadigmBoostingTranslationCapabilitiesofLargeLanguageModels》的翻译。提升大型语言模型翻译能力的新范式摘要1引言2相关工作3新的训练策略4实验5结果和分析6消融研究:如果我们直接使用大量的翻译数据进行SFT会
  • 2024-05-30Large Language Models as Data Augmenters for Cold-Start Item Recommendation论文阅读笔记
    LargeLanguageModelsasDataAugmentersforCold-StartItemRecommendation论文阅读笔记Abstract​ LLM的推理和泛化能力可以帮助我们更好地理解用户的偏好和项目特征。我们建议利用LLM作为数据增强器,来弥补在训练过程中对冷启动项目的知识差距。我们使用LLM根据用户历史行
  • 2024-05-29Re-Search for The Truth Multi-round Retrieval-augmented Large Language Models are Strong Fake News
    本文是LLM系列文章,针对《Re-SearchforTheTruth:Multi-roundRetrieval-augmentedLargeLanguageModelsareStrongFakeNewsDetectors》的翻译。重新寻找真相:多轮检索增强的大型语言模型是强大的假新闻检测器摘要1引言2相关工作3方法4实验5结论局限
  • 2024-05-29Learning Transferable Visual Models From Natural Language Supervision
    郑重声明:原文参见标题,如有侵权,请联系作者,将会撤销发布!Proceedingsofthe38thInternationalConferenceonMachineLearning,PMLR139,2021.  Abstract 1.IntroductionandMotivatingWork 2.Approach 2.1.CreatingaSufficientlyLargeDataset 
  • 2024-05-28DDL(Data Definition Language)数据定义语句
    DDL语句的主要作用是定义或修改数据表的结构或数据类型。数据表的创建:CREATETABLE{表名}({字段名}{数据类型}{限制条件1}{限制条件2}...,{字段名}{数据类型}{限制条件1}{限制条件2}...);注:*每个字段之间需要写逗号*限制条件可以不加示例:#创
  • 2024-05-27FEL - Fast Expression Language
    开源好用的表达式计算语言FEL,可惜了官网文档不在国内,我来个过来。Fel是轻量级的高效的表达式计算引擎Fel在源自于企业项目,设计目标是为了满足不断变化的功能需求和性能需求。Fel是开放的,引擎执行中的多个模块都可以扩展或替换。Fel的执行主要是通过函数实现,运算符(+、-等都是F