• 2024-11-14【小样本分割】VAT:Cost Aggregation Is All You Need for Few-Shot Segmentation
    论文:CostAggregationIsAllYouNeedforFew-ShotSegmentation代码:https://github.com/Seokju-Cho/Volumetric-Aggregation-Transformer目录简介SwinTransformer VAT​编辑VolumeEmbeddingModuleVolumetricTransformerModule Affinity-AwareTransformerDeco
  • 2024-11-12什么是Zero-shot TTS?
    在文本到语音合成(TTS)领域,“Zero-shot”通常指的是模型在没有见过或未经过专门训练的情况下生成特定风格、音色或语言的语音的能力。具体来说,Zero-shotTTS可以理解为:新说话人:在训练数据中没有该说话人的声音数据,模型可以根据给定的参考音色(例如样本音频)直接生成这个说话
  • 2024-11-12[论文阅读] General Image-to-Image Translation with One-Shot Image Guidance
    写在前面原文:https://arxiv.org/abs/2307.14352GitHub:https://github.com/CrystalNeuro/visual-concept-translator关键词:I2I阅读理由:学习他们的实验方法前置知识:PTI、多概念反转multi-conceptinversion速览WHY当前方法缺乏保留内容或有效翻译视觉概念的能力,因此无法将
  • 2024-11-12[论文阅读] ZePo: Zero-Shot Portrait Stylization with Faster Sampling
    写在前面原文:ZePoGitHub:GithubZePo关键词:肖像风格化、扩散模型、零样本快速生成阅读理由:对扩散模型的改进,可以实现零样本快速生成图像,学习一下思路以及实验设计前置知识:LCM以及GithubLCM(找时间写一下),可参考LCM&CM,一致性蒸馏、图像质量评价速览WHY扩散模型的逐步去噪过程
  • 2024-11-07zero-shot、one-shot、few-shot
    总结对比 zero-shot是一种机器学习方法,指的是模型能够处理从未在训练数据中见过的任务或类别,即模型在面对新任务时不需要额外的训练和微调也能做出合理的决策。以视觉场景为例,如CLIP(ContrastiveLanguage-ImagePre-Training),它将图像和文本嵌入到同一个语义空间中,使得模型能
  • 2024-11-03GPT 1-3 简单介绍
    GPT-1简介2018年6月,OpenAI公司发表了论文"ImprovingLanguageUnderstandingbyGenerativePretraining"(用生成式预训练提高模型的语言理解能力),推出了具有1.17亿个参数的GPT-1(GenerativePre-training,生成式预训练)模型。GPT-1采用传统的语言模型方法进行预训练,即使用
  • 2024-10-14第十期机器学习基础 03GPT的发展
    一:GPT-1---预测未来在自然语言中,大量的未标记文本语料库非常丰富,但是有标签的数据训练的效果比较好,如果想要在没有标签的数据集上训练出好的模型比较难。因此作者提出了一个想法,在无标签的数据上训练一个预训练模型,然后在这些有标签的子任务上训练一个微调模型。(当时之前是CV领
  • 2024-10-13Splatt3R: Zero-shot Gaussian Splatting from Uncalibrated Image Pairs 论文解读
    目录一、概述二、相关工作1、近期工作2、DUSt3R3、MASt3R三、Splatt3R1、MASt3R的Backbone 2、高斯预测头3、点云与3D高斯参数结合4、3D高斯渲染5、损失函数四、实验 1、对比实验2、消融实验一、概述    该论文首次提出了一种无需任何相机参数和深
  • 2024-10-03CS 839: FOUNDATION MODELS
    CS839:FOUNDATIONMODELSHOMEWORK1Instructions:Readthetwoproblemsbelow.TypeupyourresultsandincludeyourplotsinLaTeX.Submityouranswersintwoweeks(i.e.,Oct.32024,endofday).Youwillneedamachineforthisassignment,butalapto
  • 2024-09-22Metric3D v2: A Versatile Monocular Geometric Foundation Model for Zero-shot Metric Depth and Surface
    paperMetric3Dv2:AVersatileMonocularGeometricFoundationModelforZero-shotMetricDepthandSurfaceNormalEstimation作者MuHu1∗,WeiYin2∗†,ChiZhang3,ZhipengCai4,XiaoxiaoLong5‡,HaoChen6,KaixuanWang1,GangYu7,ChunhuaShen
  • 2024-09-20Phi-2: The surprising power of small language models
    Phi-2:Thesurprisingpowerofsmalllanguagemodelshttps://www.microsoft.com/en-us/research/blog/phi-2-the-surprising-power-of-small-language-models/ Phi-2EvaluationBelow,wesummarizePhi-2performanceonacademicbenchmarkscomparedtopopularla
  • 2024-09-18Align Your Prompts论文解读: Test-Time Prompting with Distribution Alignment for Zero-Shot Generalization
    Comment:AcceptedtoNeurIPS2023对齐提示:用于zero-shot泛化的测试时提示分布对齐摘要CLIP等视觉语言模型的zero-shot泛化已经引领它们在下游任务中使用提示学习。先前的工作已经表明使用熵最小化进行测试时提示调优,调整文本提示适应未见过的领域。尽管这样的方法非常高效
  • 2024-09-17AnomalyLLM: Few-shot Anomaly Edge Detection for Dynamic Graphs using Large Language Models
    本文是LLM系列文章,针对《AnomalyLLM:Few-shotAnomalyEdgeDetectionforDynamicGraphsusingLargeLanguageModels》的翻译。AnomalyLLM:使用大型语言模型对动态图进行少量异常边缘检测摘要1引言2相关工作3前言4方法5实验6结论摘要检测动态图的
  • 2024-09-16【AI大模型】ChatGPT模型原理介绍(下)
    目录
  • 2024-09-16Zero-Shot,One-Shot,Few-Shot,In-Context Learning
    Zero-Shot,One-Shot,Few-Shot,In-ContextLearninghttps://blog.csdn.net/weixin_44212848/article/details/139902394In-ContextLearning定义:In-contextlearning是一种在不显式微调模型权重的情况下,通过给模型提供相关的上下文信息(例如提示或样本)来实现模型性能提升的方法。GPT
  • 2024-09-1513 Midjourney从零到商用·进阶篇:灯光、角度与风格等精细控制方法
    在前面我们了解了提示词的书写,那么如何利用提示词来精确控制生成画面的灯光、角度与风格呢?在本篇文章中我么一起来探讨一下。一、灯光在摄影中,对灯光的要求都是非常高的。灯光能对人物、动物、物体、场景等进行修饰。每一种微小的的灯光变化都能是画面呈现出不同的效果
  • 2024-09-11《MaPLe: Multi-modal Prompt Learning》论文解读
    系列文章目录文章目录系列文章目录论文细节理解1、研究背景2、论文贡献3、方法框架4、研究思路5、实验6、限制论文细节理解预训练的视觉语言(V-L)模型,如CLIP,已经显示出对下游任务的出色泛化能力。然而,它们对输入文本提示的选择很敏感,需要仔细选择提示模板才能良好
  • 2024-09-11机器学习项目(二)科比生涯数据集分析
    背景:尽管你可能没有关注过篮球赛事,但你一定听过科比·布莱恩特这个名字,这位与乔丹齐名的篮球巨星。科比在1996年的选秀大会上以第十三顺位的身份步入了职业联赛,此后他一直为洛杉矶湖人队效力,表现出了对球队的忠诚与热爱。他在2016年宣布退役,结束了辉煌的职业生涯。科比五次帮助湖
  • 2024-09-09LLM面试题汇总
    LLM相关LLM基础zeroshot、oneshot、threeshot是什么zeroshot:零样本学习。对于模型没有见过的图像,通过已有的图像和特征相关联,从而判别新的图片fewshot:少样本学习。通过判断测试样本与训练样本的相似性,来推测测试样本属于什么类bf16和fp16有什么区别LLM微
  • 2024-08-28KASAN 中kasan_multi_shot 的作用
    kasan_multi_shot是Linux内核配置选项之一,与KernelAddressSanitizer(KASAN)相关。KASAN是一种内核内存错误检测工具,能够检测内核代码中的各种内存错误,例如越界访问、使用未初始化的内存、双重释放等。默认情况下,KASAN在检测到内存错误后会触发内核panic并停止系统的
  • 2024-08-14Cross-Image Attention for zero-shot appearance transfer
     1.Introduction探讨appearancetransfer的背景下进行图像操作,目标是将一个图像中概念的视觉外观转移到另一个图像中存在的概念上,例如,将斑马的外观转移到长颈鹿上,完成这一任务需要首先将长颈鹿和斑马之间在语义上相似的区域进行关联,然后通过这些关联转移,而不改变长颈鹿的结
  • 2024-08-07midjourney 随手记 002
    丁达尔光的树影,秋天photographybyfanho,autumnground,dappledshadowsofthetrees,TyndallLight,goldenhour,4K,HDR--ar16:9--v6丁达尔光(Tyndalleffect)是指当光通过胶体或细悬浮颗粒时,被这些微小颗粒散射的现象。这种散射会使光线在介质中形成一道道可见的光束。例
  • 2024-08-06midjourney 随手记 001
    ai摄影课绘画画的是感悟+所见摄影师的七招核心创作逻辑第一层,前四招基础设定的维度核心创作逻辑第二层,第五招简易版第五招、第六招、第七招核心创作逻辑第一层,前四招基本句式Photographyby(艺术家),(招数词),主体,环境。Photographyby安塞尔亚当斯(拍风景的),hig
  • 2024-08-01N-way K-shot Few shot learning
    首先需要明确的是少样本领域的数据划分和大规模监督学习方法的数据划分不一样。在大规模监督学习方法中,训练集和测试集是混合后按比例随机切分,训练集和测试集的数据分布一致。以分类问题为例,切分后训练集中的类别和测试集中的类别相同,区别是样本数量不同。但是,在少样本领域,训练
  • 2024-07-26论文阅读:TKDP: Threefold Knowledge-Enriched Deep Prompt Tuning for Few-Shot Named Entity Recognition
    将深度提示调优框架与三重知识(即TKDP)相结合,包括内部上下文知识和外部标签知识和语义知识。引言现有的少样本NER可分为3种:基于词-语义的方法、基于标签-语义的方法和基于提示的方法。基于词语义的方法完全依赖于输入词及其上下文。基于标签语义的方法需要额外利用标签知识。