首页 > 其他分享 >Exploring Large Language Models and Hierarchical Frameworks for Classification of Large Unstructured

Exploring Large Language Models and Hierarchical Frameworks for Classification of Large Unstructured

时间:2024-07-05 13:58:40浏览次数:10  
标签:Exploring Unstructured 框架 Large 文档 法律 MESc 大型

本文是LLM系列文章,针对《Exploring Large Language Models and Hierarchical Frameworks for Classification of Large Unstructured Legal Documents》的翻译。

探索大型非结构化法律文件分类的大型语言模型和层次框架

摘要

法律判决预测普遍存在长案文书超过数万字、结构不统一的问题。从这样的文档中预测判断成为一项具有挑战性的任务,对于没有结构注释的文档更是如此。我们通过一个基于深度学习的分层框架(我们称之为MESc)来探索这些大型法律文件的分类及其缺乏结构信息的问题;”基于多级编码器的集群监督”;用于判断预测。具体来说,我们将文档分成多个部分,从自定义微调的大型语言模型的最后四层中提取它们的嵌入,并尝试通过无监督聚类来近似它们的结构。我们在另一组transformer-编码器层中使用它来学习块间表示。我们分析了具有数十亿参数的大型语言模型(LLM)(GPT-Neo和GPTJ)与MESc的分层框架的适应性,并将其与它们在法律文本上的独立性能进行了比较。我们还研究了它们的域内(法律)迁移学习能力以及在MESc中组合最后一层嵌入的影响。我们使用ILDC数据集和LexGLUE数据集的一个子集,对来自印度、欧盟和美国的法律文件进行了广泛的实验和消融研究,以测试这些方法及其有效性。与以前最先进的方法相比,我们的方法实现了大约2个点的最小总性能增益。

1 引言

2 相关工作

3 方法:分类框架(MESc)

4 结果与讨论

5 结论

<

标签:Exploring,Unstructured,框架,Large,文档,法律,MESc,大型
From: https://blog.csdn.net/c_cpp_csharp/article/details/140187724

相关文章

  • What Makes Quantization for Large Language Models Hard?
    本文是LLM系列文章,针对《WhatMakesQuantizationforLargeLanguageModelsHard?AnEmpiricalStudyfromtheLensofPerturbation》的翻译。是什么让大型语言模型的量化变得困难?微扰透镜的经验研究摘要1引言2相关工作3前言4从微扰的角度看LLM量子化5......
  • 【针对unstructured的pdf提取的hi_res策略不能够连接huggingface.co下载模型的问题而
    unstructuredpdfhi_res策略本地推理部署说明unstructuredpdf的hi_res策略如果选用detectron2时有些问题需要关注,detectron2自从2021年到现在很久没有更新。使用如新的python3.12及最新的torch2.3.1去编译源码安装会报错torch找不到的问题导致源码编译安装失败。根据要......
  • Non-stationary Transformers: Exploring the Stationarity in Time Series Forecasti
    文章目录摘要1引言2相关工作2.1时间序列预测的深度模型2.2时间序列预测的平稳化3非平稳变压器3.1序列平稳化3.2去平稳化注意力核心思想数据平稳化自注意力机制中的去平稳化操作具体流程为什么需要去平稳化操作总结为什么最终预测结果还要进行去平稳化调整后的......
  • FOODGPT: A LARGE LANGUAGE MODEL IN FOOD TESTING DOMAIN WITH INCREMENTAL PRE-TRAI
    文章目录题目摘要方法题目食品测试的大型语言模型论文地址:https://arxiv.org/abs/2308.10173摘要    目前,特定领域的大型语言模型的构建是通过在基础模型上进行微调来完成的。有些模型还包含知识库,无需预先训练。这是因为基础模型在预训练过程中已经包......
  • [题解]AT_arc138_a [ARC138A] Larger Score
    思路不难发现:对于每一个\(i(1\leqi\leqk)\),如果能在\((k+1)\simn\)中找到任何一个\(j\),满足\(a_j>a_i\)就算满足条件。进一步思考,为了使操作数最小,对于每一个\(1(1\leqi\leqk)\),都找一个在\((k+1)\simn\)中第一个大于\(a_i\)的数,便于它交换。那么......
  • Mistral AI最新力作——Mistral Large媲美GPT-4
    MistralAI自豪地宣布,他们的最新力作——MistralLarge,已经正式面世。这款尖端的文本生成模型不仅在多语言理解上表现出色,更在推理能力上达到了顶级水平。MistralLarge能够处理包括文本理解、转换和代码生成在内的复杂多语言推理任务。MistralLarge(预训练版本)与其他顶......
  • GSVA: Generalized Segmentation via Multimodal Large Language Models论文阅读笔记
    Motivation&AbsGeneralizedReferringExpressionSegmentation(GRES):相比于原始的RES任务,一个文本描述里可能出现多个需要分割的物体,或者没有需要分割的物体,难点在于建模不同实体之间复杂的空间关系,以及识别不存在的描述。现有的方法如LISA难以处理GRES任务,为此作者提出了GSV......
  • [论文速览] Small-scale proxies for large-scale Transformer training instabilitie
    Pretitle:Small-scaleproxiesforlarge-scaleTransformertraininginstabilitiessource:ICLR2024paper:https://arxiv.org/abs/2309.14322code:ref:小尺度Transformer如何ScaleIdea这篇文章想通过小模型来研究大模型(Transformer)训练不稳定的原因Method(Model)图......
  • OGG Extract / Replicat Checkpoint RBA Is Larger than Local Trail Size (Doc ID 11
    环境:OS:Centos6DB:11.2.0.4ogg:12.3.0.1说明:从库突然宕机重启后导致1.报错如下 计算公式:Newdatapump/ReplicatRBA=Reader'stoo-bigcheckpointRBA(A)+FirstrecordRBAinthenewtrailfile(aftertherestartabend)(B)-RBAofthematchingrecord......
  • C. Lexicographically Largest
    原题链接题解1.第\(i\)个位置上的数,对\(S\)的贡献最大不会超过\(a_i+i\),我们令其为\(c_i\)2.我们不去细想如何操作才能得到最优解,而是去想第一大的\(b\)是多少?第二大的\(b\)是多少?3.对\(c_i\)降序排序得到\(b_i\),如果所有\(b_i\)都不同,那么直接输出即可。4.但......