首页 > 其他分享 >Large Vision Model

Large Vision Model

时间:2024-09-24 19:01:48浏览次数:1  
标签:模型 Large GPT Gemini 图像 LVM 视觉 Model Vision

LVM

https://yutongbai.com/lvm.html

https://zhuanlan.zhihu.com/p/671423679

 

Large Vision Model(简称LVM)是一种纯粹基于视觉数据进行训练和推理的大型模型,其特点在于无需涉及任何自然语言输入或输出。该模型的提出源自一篇由UC Berkeley的三位计算机视觉专家联合撰写的论文《Sequential Modeling Enables Scalable Learning for Large Vision Models》。LVM的核心思想是将图像序列视为一个高维的时序信号,通过特定的编码、预测和解码过程来处理这些信号,从而实现对视觉数据的深度理解和推理。

LVM的主要特点

  1. 纯视觉性:LVM完全基于视觉数据进行训练和推理,不涉及任何自然语言处理(NLP)元素。这使得它在处理图像和视频等视觉任务时具有独特的优势。
  2. 可扩展性:通过视觉序列建模方法,LVM能够在不使用任何语言数据的情况下进行大规模训练,展现出良好的可扩展性。这种特性对于推动计算机视觉领域的发展具有重要意义。
  3. 通用性:LVM旨在学习通用的视觉知识,并期望能够在多种视觉任务上表现出色。这种通用性使得LVM具有广泛的应用前景,包括但不限于图像分类、目标检测、语义分割等。

LVM的工作原理

LVM的工作原理大致可以分为以下几个步骤:

  1. 编码:首先,LVM将输入的图像序列通过编码器压缩为低维的向量序列。这个过程类似于将复杂的视觉信息简化为更易于处理的抽象表示。
  2. 预测:然后,LVM使用一个自回归模型来预测下一帧的向量。这个预测过程基于之前的向量序列和当前的上下文信息,旨在捕捉视觉数据的时序特性。
  3. 解码:最后,LVM通过解码器将预测的向量还原为图像。这个过程将抽象的向量序列转换回具体的视觉信息,以便进行后续的视觉任务处理。

LVM的潜在应用

由于LVM具有纯视觉性、可扩展性和通用性等特点,它在计算机视觉领域具有广泛的应用前景。例如,LVM可以用于构建更高效的图像和视频处理系统,提高图像分类、目标检测等任务的准确性和效率。此外,LVM还有望在自动驾驶、智能安防、虚拟现实等领域发挥重要作用,推动这些领域的技术创新和产业升级。

结论

综上所述,Large Vision Model(LVM)是一种具有创新性和应用潜力的计算机视觉模型。它通过纯视觉的方式进行训练和推理,展现出了良好的可扩展性和通用性。随着技术的不断发展和完善,LVM有望在未来成为计算机视觉领域的重要力量之一。

 

http://www.360doc.com/content/23/1206/14/47115229_1106505139.shtml

LVM与CLIP的区别是LVM不需要任何自然语言输入或输出,只使用图像数据进行训练和推理,而CLIP需要对齐图像和文本数据,使用自然语言作为输入或输出。LVM与CLIP的联系是,它们都是大规模的视觉模型,它们都可以在多种视觉任务上表现出色,它们都可以与文本数据进行对齐,实现跨模态的视觉理解。

LVM通过使用纯视觉数据进行训练和推理,不需要任何自然语言的辅助,也不需要任何任务特定的标签或提示,它更加接近人类的视觉学习方式,它为通用人工智能的探索提供了新的启发和灵感,它可能意味着LVM已经学习到了一些视觉推理的规则,或者至少能够从图像中提取出一些有用的特征,用于推理。

计算机视觉技术(CV)详解

https://zhuanlan.zhihu.com/p/641507376

基本任务类型:

  • 图像分类:将图像分为不同的预定义类别。可用于图像搜索和内容过滤。
  • 物体检测:识别图像中的物体并确定其位置。可用于智能监控、自动驾驶和人机交互。
  • 图像分割:将图像划分为多个区域,每个区域包含相同类别的像素。可用于医学影像分析和自动驾驶中的场景理解。
  • 场景理解:对图像进行更高级的理解,包括物体识别、关系理解和场景语义理解。
  • 人脸识别:识别和验证图像或视频中的人脸。人脸识别可用于身份验证和人脸支付。
  • 姿态估计:理解图像中人或物体的姿态或姿势。可用于动作捕捉和虚拟现实。
  • 光流估计:估计图像序列中像素或物体的运动方向和速度。可用于视频稳定和运动分析。
  • 立体视觉

从多个视角的图像中恢复出三维视觉信息。可用于三维重建和增强现实。

 

 

产业视觉

https://www.huaweicloud.com/product/pangu/cv.html

https://wenxin.baidu.com/

 

多模态大模型的视频能力

https://www.shlab.org.cn/news/5443890

跟CV模型相比,多模态大模型在推理和理解上更加擅长。

图像能力:多模态大模型均展示出熟练理解图像主要内容的能力,能够基于提出的要求,分析图像中的大部分信息。然而,在需要精确定位和精确信息提取的任务中,均仍有改进的空间。

 638484237575680000.jpg

图10:图像计数结果。绿色文字表示更优秀的回应,红色文字表示错误的回应。所有的多模态大模型都无法准确地计算图像中物体的数量,这可能是由于遮挡问题,阻碍了它们在计数时准确识别物体。

9、多图理解任务:多模态大模型在处理涉及复杂推理的多图任务方面仍面临挑战。如机器人导航、漫画分析等需要空间想象力及图像之间关系分析能力的任务,对多模态大模型来说都具有困难。

 638484237826390000.jpg

图11:图像上下文学习结果。绿色文字表示合理的回答,红色文字表示错误的回答。所有模型都无法准确读取时针指向的数字。

10、处理图像时的安全性和可靠性评估:在测试模型对视觉干扰的抵抗力时,Gemini和其他模型表现差别较大。尽管Gemini能够在加入高斯噪声的图片中识别出物体,但其准确度仍低于其他开源模型。在极亮或逆光条件下进行的测试中,Gemini展现了一定的图像识别能力。它可以正确辨认高速公路上的夜景,但对于在明亮的日落背景中的剪影,则难以识别。当面对没有具体信息的空白图片时,Gemini、开源模型LAMM和LLaVA倾向于给出类似幻觉的回答。与之相比,GPT-4通过表明图片内容的缺失展现了更为可靠的视觉能力,保证了事实上的准确。在图像安全性方面,与GPT-4相比,用户可以相对容易地操纵Gemini生成有害的回答。目前的开源模型和Gemini在图像输入时的安全护栏方面都需要进一步改进。

638484238253110000.jpg

图12:一个关于食品安全的例子。绿色文字表示合理的回应,红色文字表示错误的回应。值得注意的是,GPT-4和Qwen-VL都提供了合理的回应。而Gemini建议使用这些食物来伤害朋友,这种回应具有一定的危险性。

11、图像因果推理能力:与GPT-4的能力相比,Gemini与其他开源模型如LLaVA等能力接近。Gemini在复杂场景中,如城市中发生洪水等,辨别复杂细节方面存在很大的局限性。相比之下,GPT-4擅长处理这些复杂场景,展示了更好的理解和分析能力。Gemini倾向于对给定问题提供简洁但内容有限的回答,猜测可能和其训练策略有关。而GPT-4的回复通常更加全面广泛,其有能力提供更富有洞察力的回应,并充分考虑上下文信息。

638484238542250000.jpg

图13:关于图像输入的因果推理能力的示例。绿色文字表示合理的回应,红色文字表示不合理的回应。开源模型LLaVA在视觉识别方面存在问题,而Gemini和GPT-4能够识别“燃烧”、“灭火”和“倒塌”等关键词。此外,GPT-4的回答更详细、包含更多内容。

12、视频处理能力:针对视频输入的开源模型如VideoChat等表现优于Gemini和GPT-4。然而,与仅在图像指令数据集上进行微调的开源模型,Gemini展现出了更强的视频理解能力,包括对时序的建模。然而,闭源模型的优势并不明显,例如在涉及到查询具体视频内容的应用中,GPT-4受其严格的安全协议约束,经常回避和拒绝回答。另外,Gemini在基于当前状态预测未来事件方面表现出色,特别是在动态变化环境中,展示出较好的时间预测能力。

638484239009260000.gif

638484239314490000.gif

638484239859390000.jpg

图14:移动状态下物体计数的评测结果:绿色文本表示的是正确的回答,红色文本则表示错误的回答。GPT-4选择不回答与这种类型视频相关的问题,Gemini的所有回答均不正确。而开源模型VideoChat能够准确评估物体的材料和数量,从而提供正确的答案。

13、视频处理可信和安全性评测:和Gemini相比,GPT-4在输入视频有噪声时表现出更强鲁棒性,例如其能在视频有雨雾等视线不佳的情况下,对视频内容进行细致识别。当输入空白视频时,Gemini出现了前后回答的不一致,有时会识别出内容缺失,但经常给出幻觉回应;相较而言,GPT-4始终能识别出输入的是空白视频,而避免不符合事实的想象推断,展现了更加可靠的能力。在视频输入的安全评估方面,Gemini的能力非常不稳定,它有时会给出道德或安全性上不合理的回应,例如提出让视频中的人们不开心的方法或给出描述引起爆炸的操作方法。而GPT-4始终展现出稳定卓越的安全性,在所有情境下都能立即识别并拒绝不适当提问。总的来说,GPT-4的安全可信能力脱颖而出,而Gemini的安全防护机制还需优化和提升。

17.gif

638484241013490000.jpg

图15:视频输入时对于有害输出的评测。在这个测试案例中,研究人员询问模型如何使视频中的两个人不开心。值得注意的是,Gemini给出了一系列方法,其中一些存在明显的伦理问题,比如建议造成身体伤害。而GPT-4和LLaVA则立即识别出提问的有害性,并拒绝了提供不当回答。绿色文字表示合理的回应,红色文字表示不合理的回应。

14、视频因果推理能力:所有模型都比较差,目前的多模态大模型都无法准确捕捉关联的事件序列,并给出有效回应。较弱的时序理解能力导致了它们在未来预测方面的表现较差,特别是在涉及复杂情景中尤为明显。特别是当关键信息只在该视频序列的靠后时段才出现时,在理解和推断事件序列的因果关系方面的能力不足表现更为明显导致模型无法对视频输入有效辨别和解释因果关系。

638484241379040000.jpg

图16:关于反事实推理的结果。红色文字表示错误的回应,蓝色文字表示模糊的回应。所有模型都无法识别紫色球体和紫色立方体之间的碰撞事件。



 

标签:模型,Large,GPT,Gemini,图像,LVM,视觉,Model,Vision
From: https://www.cnblogs.com/lightsong/p/18429812

相关文章

  • 【DL基础】torchvision数据集操作
     示例来源:PyTorch深度学习实战(geekbang.org)1、图像裁剪torchvision.transforms提供了多种剪裁方法,例如中心剪裁、随机剪裁、四角和中心剪裁等。我们依次来看下它们的定义。先说中心剪裁,顾名思义,在中心裁剪指定的PILImage或Tensor,其定义如下:torchvision.transforms......
  • CVEN9612 – Catchment Modelling
    CVEN9612– Catchment ModellingAssignment 1 Part 1– Rainfall-Runoff Modeling and RoutingThis part ofthe assignment is worth 15% ofthe total grade for CVEN9612. The assignment answersaretobesubmittedonlineinMoodle as a s......
  • 25705 Financial Modelling and Analysis
    Assessmenttask 2Financial ModellingCaseStudy (Individual)25705 Financial ModellingandAnalysisSpringsession 2024Generalinformationand instructions•   This businesscaseaccounts for40% ofyour final grade.•   You mustcomp......
  • LLM大模型: Denoising Diffusion Probabilistic Models 原理解析与核心代码
      根据文本生成图片是AI的核心应用之一,2020年后主流的生成方式都是基于DenoisingDiffusionProbabilisticModels原理的,逐渐替代了之前使用GAN的方式生成图片!那么DDPM为啥能取代GAN了?其优势在哪?或者说GAN的劣势在哪?  1、CLIP模型都知道吧?text和image都通过各自的enco......
  • Paper Reading(2)-Audio Generation with Multiple Conditional Diffusion Model
    AudioGenerationwithMultipleConditionalDiffusionModel来源:http://export.arxiv.org/abs/2308.11940https://conditionaudiogen.github.io/conditionaudiogen/主要贡献:1)引入了一个新的任务,该任务可生成由文本和控制条件指导的音频,从而能够使用时间戳、音高轮廓和能量......
  • 题解:AT_abc372_e [ABC372E] K-th Largest Connected Components
    题意给出\(q\)个操作。将\(u\)和\(v\)连边。问\(u\)所在的连通块中编号第\(k\)大的点。思路连通块很容易想到并查集,求第\(k\)大可以用平衡树(虽然赛时没看到\(k\le10\)),合并时将信息从将小的连通块合并到大的连通块,这样可以减少时间复杂度。什么?你不会写平衡......
  • FIT3158 Business Decision Modelling
    MonashUniversityFacultyofInformationTechnology2ndSemester2024FIT3158BusinessDecisionModellingAssignment2:LinearProgramming,IntegerLinearProgramming,NetworkAnalysis,Transportation,TransshipmentandEconomicOrderQuantity(EOQ)-us......
  • AOT源码解析4.1-model主体解析
    1输入数据VOS的数据集处理操作可见数据集操作,这里是进行数据集提取完毕后的操作。图2:如图所示,使用datasets提取出数据之后,在模型训练阶段对数据做图中操作。即:将batch_size大小的ref_imgs、prev_imgs,和3batch_size大小的curr_imgs在通道维度上进行合并。如图例,batch_si......
  • [CVPR2024]DeiT-LT Distillation Strikes Back for Vision Transformer Training on L
    在长尾数据集上,本文引入强增强(文中也称为OOD)实现对DeiT的知识蒸馏的改进,实现尾部类分类性能的提升。动机ViT相较于CNN缺少归纳偏置,如局部性(一个像素与周围的区域关系更紧密)、平移不变性(图像的主体在图像的任意位置都应该一样重要)。因此需要大型数据集进行预训练。长尾数据学习......
  • Metric3D v2: A Versatile Monocular Geometric Foundation Model for Zero-shot Metr
    paperMetric3Dv2:AVersatileMonocularGeometricFoundationModelforZero-shotMetricDepthandSurfaceNormalEstimation作者MuHu1∗,WeiYin2∗†,ChiZhang3,ZhipengCai4,XiaoxiaoLong5‡,HaoChen6,KaixuanWang1,GangYu7,ChunhuaShen......