首页 > 其他分享 >pediatrics_llm_qa:儿科问诊小模型

pediatrics_llm_qa:儿科问诊小模型

时间:2024-09-12 21:35:05浏览次数:8  
标签:pediatrics 训练 模型 py qa llm

项目简介

本项目开源了基于儿科医疗指令微调的问诊模型:pediatrics_llm_qa(GitHub - jiangnanboy/pediatrics_llm_qa),目前模型的主要功能如下:

智能问诊:问诊后给出诊断结果和建议。

更新

  • [2024/09/11] 开源了基于Qwen2-1.5B-instruct lora指令微调的儿科问诊模型

开源模型

模型 基座 HuggingFace
pediatrics_llm_qa_1.5B Qwen2-1.5B-instruct pediatrics_llm_qa_1.5B

⚡快速开始

  1. 配置环境(测试环境如下,具体版本可以根据实际需求配置)
  • openvino
  • openvino-tokenizers
  • optimum-intel>=1.17.0
  • transformers>=4.40.0,<4.42.0
  • huggingface-hub>=0.21.3
  • torch>=2.1
  • gradio>=4.20.0
  • peft
  • pandas

2.训练及合并

1.训练代码见train_sft/train.py,儿科问答训练语料见data_process/all_data.rar

2.此模型是经微调后的lora模型,需要将其与Qwen2-1.5B-Instruct模型进行merge,merge代码见:
train_sft/merge_lora_weights.py

3.下载模型参数并运行(要求单卡GPU >= 15G或者CPU)

GPU环境请运行gpu_infer下面的流式推理:
     1.gpu_stream_infer.py
     2.web形式的运行gpu_web_demo.py

CPU环境请运行cpu_infer下面的流式推理:(对merge后的模型转换为支持CPU运行格式,转换见cpu_infer/convert.py,转换命令为【python convert.py --model_id /output_qwen_merged --precision fp16 --output /output_qwen_merged-ov】)
     1.cpu_stream_infer.py
     2.web形式的运行cpu_web_demo.py

web样例

免责声明

预训练模型是基于大量语料库和算法模型进行训练的,并且在训练过程中可能存在偏差、错误和不完整的信息。因此,本项目提供的预训练模型仅供参考和研究使用,并不能保证其准确性和可靠性。使用预训练模型产生的结果可能存在误差和偏差,不能用于实际应用或决策。本项目不对使用预训练模型所产生的结果承担任何责任,也不对因使用预训练模型所产生的任何损失承担责任。使用者在使用预训练模型时应自行承担风险并进行自我验证。

标签:pediatrics,训练,模型,py,qa,llm
From: https://www.cnblogs.com/little-horse/p/18411149

相关文章

  • AGI时代,程序员想学习大语言模型(LLM),应该从哪里开始?
    一、怎样学好,并应用大模型AGI(ArtificialGeneralIntelligence,通用人工智能)时代,懂AI、懂编程、懂业务的超级个体,会是AGI时代最重要的人。为了成为这样的超级个体,我们需要在哪几个方向发力呢?那就是:原理、实践和认知。不懂原理就不会举一反三,走不了太远。不懂实践就只能纸上......
  • tanuki.py学习资料汇总 - 轻松构建更快更便宜的LLM应用
    tanuki.py简介tanuki.py是一个用于轻松构建LLM驱动应用的Python库,它能让LLM应用随着使用变得更快更便宜。其主要特点包括:易于集成-只需几秒钟即可将LLM增强功能添加到任何工作流程中类型感知-确保LLM输出符合函数的类型约束,避免意外问题对齐输出-通过简单的断言语......
  • Base/chat/instruct in LLM
    Base/chat/instructhttps://blog.csdn.net/qq_43127132/article/details/140447880大模型库中的base、chat、instruct和4bit通常指的是不同类型或配置的预训练语言模型。它们的区别主要在于训练目标、用途和模型参数的精度。以下是对这些术语的解释:1.Base模型(base)   ......
  • RAG与LLM原理及实践(17)---Docker Redis & Python Usage
    目录背景Redis环境download修改镜像RunRedisCodingpythonredisdownload基本使用描述完整代码运行结果高阶用法序列化的方式 Snapshot与AOF快照(RDB)AOF(Append-OnlyFile)代码总结发布与订阅描述     代码运行结果注意事项解释Transanction......
  • LLM 工程师入门:生成式 AI 的简易指南
    大模型发展了近两年,BaihaiIDP也分享了近百篇LLM各环节的技术洞察,有前沿探讨、有落地实践、有应用经验。但回头来看,我们似乎从来没有认真、从0开始探讨过LLM的基本原理。最近,一些企业客户和伙伴来询问,是否有LLM的从0到1的科普贴。他们说:"虽然在很多场景中,L......
  • 北大&阿里最新LLM偏好学习调研报告
    《TowardsaUnifiedViewofPreferenceLearningforLargeLanguageModels:ASurvey》链接:https://arxiv.org/pdf/2409.02795github:https://github.com/kbsdjames/awesome-LLM-preference-learning摘要大型语言模型(LLMs)展现出强大的能力,但要实现与人类偏好的对齐,往往......
  • RLPF:用于LLM用户摘要的预测反馈
    《RLPF:ReinforcementLearningfromPredictionFeedbackforUserSummarizationwithLLMs》链接:https://arxiv.org/pdf/2409.04421文章介绍了一种新的强化学习方法RLPF(ReinforcementLearningfromPredictionFeedback),用于优化大型语言模型(LLMs)生成的用户摘要,以提高下......
  • GEE错误:Image.select: Band pattern ‘BQA‘ did not match any bands. Available ban
    目录错误原始代码Landsat8TOA数据介绍错误解析正确的代码 结果错误Errorinmap(ID=LC08_044034_20130603):Image.select:Bandpattern'BQA'didnotmatchanybands.Availablebands:[B1,B2,B3,B4,B5,B6,B7,B8,B9,B10,B11,QA_PIXEL,QA_RADSAT......
  • 【LLM训练系列】从零开始训练大模型之Phi2-mini-Chinese项目解读
    一、前言本文主要是在复现和实践Phi2-mini-Chinese后,简要分析下Phi2-mini-Chinese这个项目,做一个学习实战总结。原文发布于知乎:https://zhuanlan.zhihu.com/p/718307193,转载请注明出数。Phi2-mini-Chinese简介Phi2-Chinese-0.2B从0开始训练自己的Phi2中文小模型,支持接入langc......
  • BinLLM论文阅读笔记
    Text-likeEncodingofCollaborativeInformationinLargeLanguageModelsforRecommendation论文阅读笔记Abstract现存的问题:​ 在调整用于推荐的大型语言模型(LLMRec)时,整合协作信息至关重要。现有的方法通过从头开始学习LLM潜在空间中的协作嵌入或通过外部模型的映射来......