首页 > 其他分享 >LogParser-LLM: Advancing Efficient Log Parsing with Large Language Models

LogParser-LLM: Advancing Efficient Log Parsing with Large Language Models

时间:2024-09-28 10:20:25浏览次数:16  
标签:Log Language Efficient Large 粒度 LLM 日志 解析 LogParser

本文是LLM系列文章,针对《LogParser-LLM: Advancing Efficient Log Parsing with Large Language Models》的翻译。

LogParser-LLM:利用大型语言模型推进高效日志解析

摘要

日志是无处不在的数字足迹,在系统诊断、安全分析和性能优化中发挥着不可或缺的作用。从日志中提取可操作的见解在很大程度上取决于日志解析过程,该过程将原始日志转换为结构化格式以供下游分析。然而,当代系统的复杂性和日志的动态特性对现有的自动解析技术提出了重大挑战。大型语言模型(LLM)的出现提供了新的视野。凭借其广泛的知识和情境能力,LLM在各种应用中都具有变革性。在此基础上,我们介绍了LogParser LLM,这是一种集成了LLM功能的新型日志解析器。这种结合将语义见解与统计细微差别无缝融合,消除了对超参数调整和token训练数据的需求,同时通过在线解析确保了快速的适应性。进一步深化我们的探索,我们解决了解析粒度的复杂挑战,提出了一种新的度量标准,并整合了人机交互,使用户能够根据自己的特定需求校准粒度。通过对Loghub-2k和大规模LogPub基准的评估,我们的方法的有效性得到了实证证明。在LogPub标准的评估中,涉及14个数据集的每个数据集平均360万个日志,我们的LogParser LLM平均只需要272.5次LLM调用,分组准确率达到90.6%的F1分数,解析准确率达到81.1%。这些结果证明了该方

标签:Log,Language,Efficient,Large,粒度,LLM,日志,解析,LogParser
From: https://blog.csdn.net/c_cpp_csharp/article/details/142514703

相关文章

  • [机器视觉][轻量化网络]GhostFormer: Efficiently amalgamated CNNtransformer archit
    目的与成果:     本文旨在提出一个轻量化的模型,在减少模型参数量的同时,保持一定的精度,  实验表明,该模型在PascalVOC数据集上的计算成本不到YOLOv7的一半,仅损失约3%mAP@0.5,在MSCOCO数据集上的损失为9.7%mAP@0.5,与GhostNet相比提高了0.95。本文的主要思想: ......
  • MapBox Android版开发 6 关于Logo
    MapBoxAndroid版开发6关于LogoLogo的显示查看源码及思路(Logo)第一步第二步隐藏Logo示例查看源码及思路(Info)第一步第二步隐藏Logo和Info示例看到有网友留言问如何移除Logo,今天看了下V9源码,发现MapBox提供了禁用Logo的功能。先简单说下思路部分源码,最后是示例。L......
  • ClkLog常见问题-埋点集成篇Sec. 2
    本篇将继续解答ClkLog使用过程中【埋点集成】阶段的常见问题。1. 【埋点集成】问:receiver数据接收是不是一定要有ssl证书?答:不是。2. 【埋点集成】问:接收服务地址从哪里获取?答:接收服务地址参考:http(s)://{YOUR_IPORDOMAIN}/receiver/api/gp?project={clklogapp}&token={apptok......
  • 《HelloGitHub》第 102 期
    兴趣是最好的老师,HelloGitHub让你对编程感兴趣!简介HelloGitHub分享GitHub上有趣、入门级的开源项目。github.com/521xueweihan/HelloGitHub这里有实战项目、入门教程、黑科技、开源书籍、大厂开源项目等,涵盖多种编程语言Python、Java、Go、C/C++、Swift...让你在短......