首页 > 其他分享 >A Survey of Mathematical Reasoning in the Era of Multimodal Large Language Model

A Survey of Mathematical Reasoning in the Era of Multimodal Large Language Model

时间:2025-01-12 10:30:42浏览次数:3  
标签:Mathematical 模态 视角 Language 挑战 Large 数学 LLM 推理

本文是LLM系列文章,针对《A Survey of Mathematical Reasoning in the Era of Multimodal Large Language Model: Benchmark, Method & Challenges》的翻译。

多模态大语言模型时代的数学推理:基准、方法与挑战

摘要

数学推理是人类认知的一个核心方面,在从教育问题解决到科学进步的许多领域都至关重要。随着通用人工智能(AGI)的发展,将大型语言模型(LLM)与数学推理任务相结合变得越来越重要。这项调查首次对多模态大语言模型(MLLM)时代的数学推理进行了全面分析。我们回顾了自2021年以来发表的200多项研究,并研究了数学LLM的最新发展,重点关注多模态设置。我们将该领域分为三个维度:基准、方法和挑战。特别是,我们探索了多模态数学推理管道,以及(M)LLM和相关方法的作用。最后,我们确定了阻碍AGI在该领域实现的五大挑战,为提高多模态推理能力的未来方向提供了见解。这项调查为研究界提高LLM处理复杂多模态推理任务的能力提供了关键资源。

1 引言

2 基准视角

3 方法视角

4 挑战

5 结论

标签:Mathematical,模态,视角,Language,挑战,Large,数学,LLM,推理
From: https://blog.csdn.net/c_cpp_csharp/article/details/145058923

相关文章

  • Packet for query is too large . You can change this value on the server by setti
    如果写入大数据时,因为默认的配置太小,插入和更新操作会因为max_allowed_packet参数限制,而导致失败。mysql根据max_allowed_packet参数来限制server接受的数据包大小。当一个MySQL客户或mysqld服务器得到一个max_allowed_packet个字节长的包,它发出一个Packettoolarge错误并终......
  • WWW‘24:Collaborative Large Language Model for Recommender Systems文献阅读
    摘要本文介绍了一种新型的基于协同大型语言模型(CLLM4Rec)的推荐系统,该系统将传统的基于ID的推荐系统范式与基于大型语言模型(LLM)的范式相结合,旨在解决自然语言与推荐任务之间语义差异的问题。通过引入用户/项目ID标记和创新的软+硬提示策略,CLLM4Rec能够有效地学习用户和项目的协......
  • KnowledgePrompts: Exploring the Abilities of Large Language Models to Solve Prop
    本文是LLM系列文章,针对《KnowledgePrompts:ExploringtheAbilitiesofLargeLanguageModelstoSolveProportionalAnalogiesviaKnowledge-EnhancedPrompting》的翻译。KnowledgePrompts:通过知识增强提示探索大型语言模型解决比例类比的能力摘要1引言2相关......
  • The Superalignment of Superhuman Intelligence with Large Language Models
    本文是LLM系列文章,针对《TheSuperalignmentofSuperhumanIntelligencewithLargeLanguageModels》的翻译。超人类智能与大型语言模型的超对齐摘要1引言2从学习角度定义超对齐3超对齐研究中的关键问题4实现超对齐的框架5结论和未来方向摘要由于大......
  • 论文阅读:ERNIE 3.0: Large-scale Knowledge Enhanced Pre-training for Language Unde
    简介ERNIE3.0融合了自回归和自编码,在由纯文本和大规模知识图谱组成的4TB语料库上训练大规模知识增强模型,传播了自然语言理解、自然语言生成和知识提取三个任务范式。框架自然语言处理的不同任务范式始终依赖于相同的底层抽象特征,例如词汇信息和句法信息,但顶级具体特征的要......
  • 智能工厂的设计软件 应用场景的一个例子: 为AI聊天工具添加一个知识系统 之22 PIN Lang
    本文提要前面一篇给出了本项目的主页页面及其三个page的内容模型及程序。本篇我们继续在更完整的视野中给出本项目的三级参数(通用建模参数)。在这里分别是为“知识树”的三级节点(根茎叶。其中叶子级节点有一个三嵌套的内容模型--就是刚才讨论的三种page的嵌套它们......
  • 【AI学习笔记5】用C语言实现一个最简单的MLP网络 A simple MLP Neural network in C
    用C语言实现一个最简单的MLP网络AsimpleMLPNeural NetworkinClanguage 从图像中识别英文字母【1】从图像中识别多个不同的数字,属于多分类问题;每个图像是5*5的像素矩阵,分别包含1-5五个字母数字; 网络结构:一个隐藏层的MLP网络;       每个图像是5x5个......
  • Cross-modal Information Flow in Multimodal Large Language Models
    本文是LLM系列文章,针对《Cross-modalInformationFlowinMultimodalLargeLanguageModels》的翻译。多模态大型语言模型中的跨模态信息流摘要1引言2相关工作3MLLM中的信息流跟踪4实验设置5不同模态对最终预测的贡献6语言和视觉信息如何集成的?7最终答......
  • SLED: Self Logits Evolution Decoding for Improving Factuality in Large Language
    本文是LLM系列文章,针对《SLED:SelfLogitsEvolutionDecodingforImprovingFactualityinLargeLanguageModels》的翻译。SLED:SelfLogitsEvolutionDecodingforImprovingFactualityinLargeLanguageModels摘要1引言2Self-Logits进化解码3实验4......
  • 论文阅读:Transformer-XL: Attentive Language Models Beyond a Fixed-Length Context
    Transformer可以接收一整段序列,然后使用self-attention机制来学习它们之间的依赖关系,但其在语言建模时受到固定长度上下文的限制(固定长度的输入、绝对位置编码的限制、注意力机制的计算复杂度)。Transformer-XL以此为基础,引入一个片段级递归机制和一种新的位置编码方案,从而可以在......