首页 > 其他分享 >借助 LLMs 分析上市公司电话会议,提高股票波动性预测精度

借助 LLMs 分析上市公司电话会议,提高股票波动性预测精度

时间:2024-09-13 19:21:17浏览次数:3  
标签:ECCs ECC 预测 LLMs 波动性 电话会议

作者:老余捞鱼

原创不易,转载请标明出处及原作者。

写在前面的话:
       
今天摘选了一篇论文分享给大家。该论文介绍了一个名为ECC Analyzer的新框架,它利用大型语言模型(LLMs)从电话会议(ECCs)中提取更丰富、更细粒度的信息,以提高股票波动性预测的性能。研究者们采用了一种分层信息提取策略,包括段落级总结和关键句子提取,然后通过多模态特征融合进行波动性预测。实验结果表明,该模型在预测短期波动性方面优于传统基准,同时在中长期预测方面也显示出与现有最佳方法相当的性能。

1. 引言 (Introduction)

       在金融分析领域,预测一定时期内的股票波动性对于资本市场参与者做出更好的投资决策至关重要。以往的研究虽然已经展示了利用公开信息预测股票波动性的可能性,但这些方法往往依赖于结构化数据,对于非结构化数据,如电话会议(ECCs)的利用尚未充分。

       本研究提出了一个名为ECC

标签:ECCs,ECC,预测,LLMs,波动性,电话会议
From: https://blog.csdn.net/weixin_70955880/article/details/141905666

相关文章

  • 【Preference Learning】Chain of Preference Optimization: Improving Chain-of-Thou
    问题背景在推理过程中使用TOT方式可以增加推理性能,但由于增加了推理次数,导致耗时过大。目前待解决的问题是如何能在推理时既保持很好的推理能力,又保持推理耗时不会过大。本文方法文章提出CPO(ChainofPreferenceOptimization)方式。该方法使用TOT方式来探索推理路径得到......
  • C#整合Ollama实现本地LLMs调用
    前言    近两年AIGC发展的非常迅速,从刚开始的只有ChatGPT到现在的很百家争鸣。从开始的大参数模型,再到后来的小参数模型,从一开始单一的文本模型到现在的多模态模型等等。随着一起进步的不仅仅是模型的多样化,还有模型的使用方式。大模型使用的门槛越来越低,甚至现在每个人都可......
  • 【RAG】LongRAG:利用长上下文LLMs增强检索增强生成
    前言现有的RAG框架通常使用100词的短段落作为检索单元,这种设计使得检索器需要在大量语料库中搜索,增加了工作负担,并且容易引入难负样本,影响性能。LongRAG框架为了解决这一问题,该框架使用长检索单元(最多4K词),显著减少了语料库的大小(从22M减少到600K),从而减轻了检索器的负担,并提......
  • 大型语言模型(LLMs)是怎样“学习”的?一封给网络工程师的大模型指南
    数字时代,人工智能(AI)及其相关技术正日益成为许多领域的热门话题。其中,生成式人工智能(GenAI)和大型语言模型(LLMs)引起了广泛的兴趣和讨论。然而,尽管这些术语在科技界和专业领域中频繁出现,网络工程师对其的理解却不多。什么是生成式人工智能和大型语言模型?本文将为大家介绍大......
  • 论 LLMs 如何解决长文本问题?
    一、长文本的核心问题与解决方向1.1文本长度与显存及计算量之关系要研究清楚长文本的问题,首先应该搞清楚文本长度在模型中的地位与影响。那么我们便以Decoder-base的模型为例来进行分析1.1.1模型参数量Decoder-base的模型主要包括3个部分:embedding,decoder-laye......
  • INSIDE: LLMS’ INTERNAL STATES RETAIN THE POWER OF HALLUCINATION DETECTION
    本文是LLM系列文章,针对《INSIDE:LLMS’INTERNALSTATESRETAINTHEPOWEROFHALLUCINATIONDETECTION》的翻译。INSIDE:LLMS的内部状态保留了幻觉检测的力量摘要1引言2幻觉检查的背景3方法4实验5相关工作6结论摘要知识幻觉引起了人们对部署的LLM的......
  • 【新书】掌握大语言模型:高级技术、应用、尖端方法和顶尖LLMs
    主要特性探索自然语言处理(NLP)基础和大语言模型基本原理,包括基础知识、挑战和模型类型。学习数据处理和预处理技术,以实现高效的数据管理。了解神经网络概述,包括神经网络基础、循环神经网络(RNNs)、卷积神经网络(CNNs)和变压器模型。利用大语言模型的策略和示例。描述通过强大的大语言模......
  • 在私有化过程中不要忽视LLMs的双重逻辑能力:医学领域的数据密集型分析
    链接:https://arxiv.org/abs/2309.04198原标题:Don’tIgnoreDualLogicAbilityofLLMswhilePrivatizing:AData-IntensiveAnalysisinMedicalDomain日期:Submittedon8Sep2023摘要大量的研究致力于通过喂养特定领域的数据,将通用领域的LargeLanguageModels......
  • 如何使用Hugging Face微调大语言模型(LLMs)
    大语言模型(LLMs)在过去一年取得了显著进步。从ChatGPT爆发以来,后来逐步发展了众多开源大模型LLMs,如MetaAI的Llama2、MistralsMistral&Mixtral模型,TIIFalcon等。这些LLMs能够胜任多种任务,包括聊天机器人、问答和自动摘要,而且无需进行额外的训练。但是,如果你想为你的应用......
  • 大型语言模型(LLMs)的技术革新:问答对生成与优化实践
    1.引言在人工智能领域,大型语言模型(LLMs)正以其强大的自然语言处理能力,为各行各业带来革命性的变化。这些模型,如GPT-3、GPT-4以及Llama2,不仅在文本生成、翻译、摘要等领域展现出卓越的性能,还在问答系统中扮演着至关重要的角色。问答对(Question-Answerpairs,Q&A)的生成是LL......