• 2024-06-30Visual Instruction Tuning (LLaVA)
    论文链接:https://proceedings.neurips.cc/paper_files/paper/2023/file/6dcf277ea32ce3288914faf369fe6de0-Paper-Conference.pdf代码链接:https://github.com/haotian-liu/LLaVA?tab=readme-ov-file动机指令微调(InstructionTuning)语言大模型(LLMs)使用机器生成的指令跟
  • 2024-06-22kedaOJ#P2849时间涟漪
    题目kedaOJ#P2849时间涟漪思路栈代码#include<bits/stdc++.h>usingnamespacestd;intmain(){intN;cin>>N;stack<int>timeRipples;intmaxEnergy=INT_MIN;for(inti=0;i<N;++i){intinstruction;
  • 2024-06-12论文解读——AAMAS2024《OPEx: A Large Language Model-Powered Framework for Embodied Instruction Following 》
    一、研究背景  具身指令执行(EmbodiedInstructionFollowing,EIF)是指在一个特定的物理或虚拟环境中,使能自主代理(如机器人或虚拟代理)根据自然语言指令来执行复杂的任务。这种研究领域集中于探索自然语言理解与机器执行能力的结合,尤其是在模拟家庭或日常环境中,如何使代理
  • 2024-06-07Visual Instruction Tuning论文阅读笔记
    Motivation&AbsMotivation:之前基于LLM的通用助手仅能处理文本。数据:使用纯语言的GPT4生成多模态语言-图像指令数据。模型:基于生成数据端到端训练的模型LLaVA,用于通用视觉语言理解。指标:两个benchmark。GPT-assistedVisualInstructionDataGeneration现有的多模态指令数
  • 2024-05-22Visual Instruction Tuning
    郑重声明:原文参见标题,如有侵权,请联系作者,将会撤销发布!37thConferenceonNeuralInformationProcessingSystems(NeurIPS2023) Abstract使用机器生成的指令跟踪数据的指令调优大语言模型(LLM)已被证明可以提高新任务的零样本能力,但这一想法在多模态领域的探索较少。
  • 2024-03-27指令cache一致性
    指令cache一致性​​N2alsogetsoptionalhardwareinstructioncachecoherency.ARMrecommendsenablingitonsystemswithalotofcoresbecausebroadcastingsoftware-issuedinstructioncacheinvalidateswouldnotbescalable.Toimplementinstructionca
  • 2024-03-25LLM - 大语言模型的指令微调(Instruction Tuning) 概述
    欢迎关注我的CSDN:https://spike.blog.csdn.net/本文地址:https://blog.csdn.net/caroline_wendy/article/details/137009993大语言模型的指令微调(InstructionTuning)是一种优化技术,通过在特定的数据集上进一步训练大型语言模型(LLMs),使其能够更好地理解和遵循人类的指
  • 2024-03-16聊聊ChatGLM-6B医疗数据微调
    转载请注明出处:https://www.cnblogs.com/zhiyong-ITNote/参考了多个医疗大模型,如扁鹊、灵心等,重新思考了下微调的方案以及数据集的格式;基于ChatGLM/其它LLM整合多种微调方法的非官方实现的框架,审视其数据集格式,以及调试效果,进行微调。最终基于liucongg/ChatGLM-Finetuning开
  • 2024-03-13【Coursera GenAI with LLM】 Week 2 Fine-tuning LLMs with instruction Class Notes
    GenAIProjectLifecycle:Afterpickingpre-trainedmodels,wecanfine-tune!In-contextlearning(ICL):zero/one/fewshotinference.Includingafewmodelsinthepromptformodeltolearnandgenerateabettercomplement(akaoutput).Itsdrawbacks
  • 2024-03-03Go - Optimization - instruction-level parallelism (ILP)
      
  • 2024-02-14instruction备份
    instructions={1:"请根据输入的10条数据的语言执行相反的翻译,输入数据为'{0}'(如果输入是英语,则翻译成中文;如果输入是中文,则翻译成英语)(换行符分隔),只返回翻译后的结果,不要包含原文,每条也用换行分隔。请确保翻译结果使用完整的自然语言句子,除逗号、句号外不要有特殊符号。"
  • 2024-02-01最小的调整次数 od
    最小调整顺序次数、特异性双端队列逻辑分析题目描述有一个特异性的双端队列,该队列可以从头部或尾部添加数据,但是只能从头部移出数据.小A依次执行2n个指令往队列中添加数据和移出数据。其中n个指令是添加数据(可能从头部添加、也可能从尾部添加),依次添加1到n;n个指令是移出数据
  • 2024-01-26MetaGPT day04 MetaGPT ActionNode
    ActionNode说明文档导读#什么是ActionNode?1.ActionNode是Action的通用化抽象2.ActionNode是SOP的最小单元#ActionNode是Action的通用化抽象:反推可得知Action不够通用化?也就是说ActionNode的粒度比action更细? Action-粒度更细->ActionNode#Actio
  • 2024-01-22Orca 虎鲸1号余波未平 ,虎鲸2号一波又起
    还是讲虎鲸,不过是迭代了   123上链接......   2311.11045.pdf(arxiv.org)       11月18号新出的论文,不同于Orca1,Orca2的论文著作这里有中国兄弟介入了,感觉Orca1好像都是3哥,3哥水论文的速度是真的快...    先说一下我对这篇论文的感受,其实没多有特
  • 2023-12-17Open-World Object Manipulation using Pre-trained Vision-Language Models
    概述提出MOO:ManipulationofOpen-WorldObjects用预训练的VLM在图像中标记instruction的object的坐标,传入policy进行控制,可以zero-shot泛化到novelobject,还支持手指、点击输入指令。问题机器人泛化到训练中没有见过或者操作过的object。perception-planning-control的pi
  • 2023-12-09Recommendation as Instruction Following: A Large Language Model Empowered Recommendation Approach
    目录概InstructRecInstructionGenerationZhangJ.,XieR.,HouY.,ZhaoW.X.,LinL.,WenJ.Recommendationasinstructionfollowing:alargelanguagemodelempoweredrecommendationapproach.2023.概通过指令跟随来利用大模型进行推荐,本文介绍了不同的指令
  • 2023-12-04指令cache一致性
    指令cache一致性​​N2alsogetsoptionalhardwareinstructioncachecoherency.ARMrecommendsenablingitonsystemswithalotofcoresbecausebroadcastingsoftware-issuedinstructioncacheinvalidateswouldnotbescalable.Toimplementinstructionca
  • 2023-11-29llama-factory fine-tuning
    datapreparationforllama-factoryfine-tuning,hereistheinstructionforcustomdatasetpreparation.datasetclassificationalpacastanford_alpacadatasetisafamousexampletofine-tuningllama2togetalpacamodel,followisitsstructure. [{
  • 2023-11-14浅谈JVM Instruction Set (Opcode)
    浅谈JVMInstructionSet(Opcode)1.背景日常开发中,遇到一个潜藏bug的java代码,借此简单回顾一下JVMInstructionSet(Opcode)知识。问题demo代码如下:publicclassBugDemo{publicstaticvoidmain(String[]args){//模拟用户输入(具有不可预测性),假设
  • 2023-10-24[VM] The JavaScript Virtual Machine
    TableofContentIntroudctiontoVMsCPU-UnderstandingthePysicalMachineVMs-Arrays,Objects,functions,prototypechainsDepotExplorer:collectingdatafromtheVMDeopt:CallingCoventions&InliningMegamohpism&InlineCache:Objectpro
  • 2023-10-21ISB、DSB和DMB的含义
    参考DDI0487J_a_a-profile_architecture_reference_manual.pdfB2.3DefinitionoftheArmmemorymodelB2.3.12MemorybarriersDataMemoryBarrier(DMB)DataSynchronizationBarrier(DSB)InstructionSynchronizationBarrier(ISB)DataMemoryBarrier(D
  • 2023-10-17asisctf 2023 pwn nightjs 复现记录
    关于赛题asisctf2023nightjs附件一道js引擎题目,基于serenityOS上做的改编。(感觉serenity作者很强迫症善良得写了很多注释,连一行赋值语句都有注释,读起来超级愉悦)。偷看了别人的wp来复现。给了patch文件之后,查看修改处的函数被什么函数引用,漏洞点就很明了了。攻击流
  • 2023-10-12ST12 Trace – Step by step instruction on how to use it for analysis
    ST12介绍ST12性能分析工具的使用分如下三个步骤:设置跟踪参数开始跟踪收集跟踪数据分析跟踪数据跟踪参数分类:跟踪对象(TraceFor)跟踪类型(TypeofTrace)跟踪对象ST12可以捕获4种类型的数据“User/Tasks”,“WorkProcess”,“CurrentMode”和“ForaSchedule”
  • 2023-09-20Parallel Programming Basic
    Learnaboutthedifferencebetweentime-efficiency(moreimportant)andwork-efficiencyparallelloopRelativeinstructionsetSSE(StreamingSIMDExtensions)instructionsetAVX(AdvancedVectorExtensions)instructionsetItisx86microprocessorinstruc
  • 2023-09-08指令微调LLM进行推荐Recommendation as Instruction Following: A Large Language Model Empowered Recommendation
    原文地址:https://arxiv.org/abs/2305.07001本文作者将用户偏好、意图等构建为指令,并用这些指令调优一个LLM(3BFlan-T5-XL),该方法对用户友好,用户可以与系统交流获取更准确的推荐。INTRODUCTIONLLM是建立在自然语言文本上的,它不能直接适应基于行为数据的推荐系统。为了减少两者的g