本文是LLM系列文章,针对《Adapting Open-Source Large Language Models for Cost-Effective, Expert-Level Clinical Note Generation with On-Policy Reinforcement Learning》的翻译。
采用开源大型语言模型,通过策略强化学习生成经济高效的专家级临床笔记
摘要
GPT-4 和 Gemini 等专有大型语言模型 (LLM) 在临床文本摘要任务中表现出有前途的能力。但是,出于患者数据隐私和计算成本的考虑,许多医疗保健提供商更喜欢使用小型的本地托管模型,而不是外部通用 LLM。 本研究为开源 LLaMA-2 130 亿参数模型提出了一个全面的领域和任务特定适应过程,使其能够从门诊医患对话中生成高质量的临床记录。我们的流程包括持续的预训练、监督式微调以及来自 AI 和人类反馈的强化学习。我们引入了一种新方法,DistillDirect,用于以 Gemini 1.0 Pro 作为教师模型进行策略强化学习。我们生成的模型 LLaMA-Clinic 可以生成与医生撰写的临床记录质量相当的临床记录。在一项盲法医生读者研究中,大多数 (90.4%) 的个人评估将 LLaMA-Clinic 生成的笔记评为“可接受”或更高,涵盖所有三个标准:真实世界的准备情况、完整性和准确性。在更具挑战性的 “评估和计划 ”部分,LLaMA-Clinic 在实际准备方面的得分 (4.2/5) 高于医生撰写的笔记
标签:Adapting,LLM,Effective,模型,生成,Note,Clinic,临床,LLaMA From: https://blog.csdn.net/c_cpp_csharp/article/details/143083140