• 2024-11-03GPT 1-3 简单介绍
    GPT-1简介2018年6月,OpenAI公司发表了论文"ImprovingLanguageUnderstandingbyGenerativePretraining"(用生成式预训练提高模型的语言理解能力),推出了具有1.17亿个参数的GPT-1(GenerativePre-training,生成式预训练)模型。GPT-1采用传统的语言模型方法进行预训练,即使用
  • 2024-10-14第十期机器学习基础 03GPT的发展
    一:GPT-1---预测未来在自然语言中,大量的未标记文本语料库非常丰富,但是有标签的数据训练的效果比较好,如果想要在没有标签的数据集上训练出好的模型比较难。因此作者提出了一个想法,在无标签的数据上训练一个预训练模型,然后在这些有标签的子任务上训练一个微调模型。(当时之前是CV领
  • 2024-10-13Splatt3R: Zero-shot Gaussian Splatting from Uncalibrated Image Pairs 论文解读
    目录一、概述二、相关工作1、近期工作2、DUSt3R3、MASt3R三、Splatt3R1、MASt3R的Backbone 2、高斯预测头3、点云与3D高斯参数结合4、3D高斯渲染5、损失函数四、实验 1、对比实验2、消融实验一、概述    该论文首次提出了一种无需任何相机参数和深
  • 2024-10-03CS 839: FOUNDATION MODELS
    CS839:FOUNDATIONMODELSHOMEWORK1Instructions:Readthetwoproblemsbelow.TypeupyourresultsandincludeyourplotsinLaTeX.Submityouranswersintwoweeks(i.e.,Oct.32024,endofday).Youwillneedamachineforthisassignment,butalapto
  • 2024-09-22Metric3D v2: A Versatile Monocular Geometric Foundation Model for Zero-shot Metric Depth and Surface
    paperMetric3Dv2:AVersatileMonocularGeometricFoundationModelforZero-shotMetricDepthandSurfaceNormalEstimation作者MuHu1∗,WeiYin2∗†,ChiZhang3,ZhipengCai4,XiaoxiaoLong5‡,HaoChen6,KaixuanWang1,GangYu7,ChunhuaShen
  • 2024-09-20Phi-2: The surprising power of small language models
    Phi-2:Thesurprisingpowerofsmalllanguagemodelshttps://www.microsoft.com/en-us/research/blog/phi-2-the-surprising-power-of-small-language-models/ Phi-2EvaluationBelow,wesummarizePhi-2performanceonacademicbenchmarkscomparedtopopularla
  • 2024-09-18Align Your Prompts论文解读: Test-Time Prompting with Distribution Alignment for Zero-Shot Generalization
    Comment:AcceptedtoNeurIPS2023对齐提示:用于zero-shot泛化的测试时提示分布对齐摘要CLIP等视觉语言模型的zero-shot泛化已经引领它们在下游任务中使用提示学习。先前的工作已经表明使用熵最小化进行测试时提示调优,调整文本提示适应未见过的领域。尽管这样的方法非常高效
  • 2024-09-17AnomalyLLM: Few-shot Anomaly Edge Detection for Dynamic Graphs using Large Language Models
    本文是LLM系列文章,针对《AnomalyLLM:Few-shotAnomalyEdgeDetectionforDynamicGraphsusingLargeLanguageModels》的翻译。AnomalyLLM:使用大型语言模型对动态图进行少量异常边缘检测摘要1引言2相关工作3前言4方法5实验6结论摘要检测动态图的
  • 2024-09-16【AI大模型】ChatGPT模型原理介绍(下)
    目录
  • 2024-09-16Zero-Shot,One-Shot,Few-Shot,In-Context Learning
    Zero-Shot,One-Shot,Few-Shot,In-ContextLearninghttps://blog.csdn.net/weixin_44212848/article/details/139902394In-ContextLearning定义:In-contextlearning是一种在不显式微调模型权重的情况下,通过给模型提供相关的上下文信息(例如提示或样本)来实现模型性能提升的方法。GPT
  • 2024-09-1513 Midjourney从零到商用·进阶篇:灯光、角度与风格等精细控制方法
    在前面我们了解了提示词的书写,那么如何利用提示词来精确控制生成画面的灯光、角度与风格呢?在本篇文章中我么一起来探讨一下。一、灯光在摄影中,对灯光的要求都是非常高的。灯光能对人物、动物、物体、场景等进行修饰。每一种微小的的灯光变化都能是画面呈现出不同的效果
  • 2024-09-11《MaPLe: Multi-modal Prompt Learning》论文解读
    系列文章目录文章目录系列文章目录论文细节理解1、研究背景2、论文贡献3、方法框架4、研究思路5、实验6、限制论文细节理解预训练的视觉语言(V-L)模型,如CLIP,已经显示出对下游任务的出色泛化能力。然而,它们对输入文本提示的选择很敏感,需要仔细选择提示模板才能良好
  • 2024-09-11机器学习项目(二)科比生涯数据集分析
    背景:尽管你可能没有关注过篮球赛事,但你一定听过科比·布莱恩特这个名字,这位与乔丹齐名的篮球巨星。科比在1996年的选秀大会上以第十三顺位的身份步入了职业联赛,此后他一直为洛杉矶湖人队效力,表现出了对球队的忠诚与热爱。他在2016年宣布退役,结束了辉煌的职业生涯。科比五次帮助湖
  • 2024-09-09LLM面试题汇总
    LLM相关LLM基础zeroshot、oneshot、threeshot是什么zeroshot:零样本学习。对于模型没有见过的图像,通过已有的图像和特征相关联,从而判别新的图片fewshot:少样本学习。通过判断测试样本与训练样本的相似性,来推测测试样本属于什么类bf16和fp16有什么区别LLM微
  • 2024-08-28KASAN 中kasan_multi_shot 的作用
    kasan_multi_shot是Linux内核配置选项之一,与KernelAddressSanitizer(KASAN)相关。KASAN是一种内核内存错误检测工具,能够检测内核代码中的各种内存错误,例如越界访问、使用未初始化的内存、双重释放等。默认情况下,KASAN在检测到内存错误后会触发内核panic并停止系统的
  • 2024-08-14Cross-Image Attention for zero-shot appearance transfer
     1.Introduction探讨appearancetransfer的背景下进行图像操作,目标是将一个图像中概念的视觉外观转移到另一个图像中存在的概念上,例如,将斑马的外观转移到长颈鹿上,完成这一任务需要首先将长颈鹿和斑马之间在语义上相似的区域进行关联,然后通过这些关联转移,而不改变长颈鹿的结
  • 2024-08-07midjourney 随手记 002
    丁达尔光的树影,秋天photographybyfanho,autumnground,dappledshadowsofthetrees,TyndallLight,goldenhour,4K,HDR--ar16:9--v6丁达尔光(Tyndalleffect)是指当光通过胶体或细悬浮颗粒时,被这些微小颗粒散射的现象。这种散射会使光线在介质中形成一道道可见的光束。例
  • 2024-08-06midjourney 随手记 001
    ai摄影课绘画画的是感悟+所见摄影师的七招核心创作逻辑第一层,前四招基础设定的维度核心创作逻辑第二层,第五招简易版第五招、第六招、第七招核心创作逻辑第一层,前四招基本句式Photographyby(艺术家),(招数词),主体,环境。Photographyby安塞尔亚当斯(拍风景的),hig
  • 2024-08-01N-way K-shot Few shot learning
    首先需要明确的是少样本领域的数据划分和大规模监督学习方法的数据划分不一样。在大规模监督学习方法中,训练集和测试集是混合后按比例随机切分,训练集和测试集的数据分布一致。以分类问题为例,切分后训练集中的类别和测试集中的类别相同,区别是样本数量不同。但是,在少样本领域,训练
  • 2024-07-26论文阅读:TKDP: Threefold Knowledge-Enriched Deep Prompt Tuning for Few-Shot Named Entity Recognition
    将深度提示调优框架与三重知识(即TKDP)相结合,包括内部上下文知识和外部标签知识和语义知识。引言现有的少样本NER可分为3种:基于词-语义的方法、基于标签-语义的方法和基于提示的方法。基于词语义的方法完全依赖于输入词及其上下文。基于标签语义的方法需要额外利用标签知识。
  • 2024-07-24The Emergence of Objectness: Learning Zero-Shot Segmentation from Videos 论文详解
    TheEmergenceofObjectness:LearningZero-ShotSegmentationfromVideos文章目录TheEmergenceofObjectness:LearningZero-ShotSegmentationfromVideos前言摘要1Introduction具体分析1具体分析2具体分析32相关工作3通过外观-运动分解分割具体分析43.1
  • 2024-07-24Prompt设计策略
    前文:由于最近尝试使用prompt来进行大模型推理的时候,发现不同的prompt产生的效果不同,于是调研了几个不同的prompt的写法。先说下我的任务:根据图片生成一个Caption(关于图片的描述)。尝试了几种prompt方法:CRISPE框架、Zero-shot、Few_shot、COT、COT+SC、TOT、Step-Back。CRISPE框架
  • 2024-07-15如何与 LLMs 有效沟通?6位数提示词工程师经验(LLMs 提示词小白必学)
    除非你活在太空里,完全脱离了现代社交媒体和新闻的关注,否则你不太可能错过大型语言模型    欢迎来到云闪世界。除非你活在太空里,完全脱离了现代社交媒体和新闻的关注,否则你不太可能错过大型语言模型(LLM)的突飞猛进带给我们生活中的革命性进步。LLM的演变。
  • 2024-07-10GOLLIE : ANNOTATION GUIDELINES IMPROVE ZERO-SHOT INFORMATION-EXTRACTION
    文章目录题目摘要引言方法实验消融题目Gollie:注释指南改进零样本信息提取论文地址:https://arxiv.org/abs/2310.03668摘要    大型语言模型(LLM)与指令调优相结合,在泛化到未见过的任务时取得了重大进展。然而,它们在信息提取(IE)方面不太成功,落后于特定任
  • 2024-07-08FD-Align: Feature Discrimination Alignment for Fine-tuning Pre-Trained Models in Few-Shot Learning
    文章汇总动机CLIP注意图更关注背景,全面微调后的CLIP关注在了非显著特征的地方。FD-Align注意图倾向于关注标签相关的信息。解决办法总损失有两个损失函数组成:对VisualEncoder进行微调冻结CLIP的文本编码器g