- 2024-11-11Qwen1.5大语言模型微调实践
在人工智能领域,大语言模型(LargeLanguageModel,LLM)的兴起和广泛应用,为自然语言处理(NLP)带来了前所未有的变革。Qwen1.5大语言模型作为其中的佼佼者,不仅拥有强大的语言生成和理解能力,而且能够通过微调(fine-tuning)来适应各种特定场景和任务。本文将带领大家深入实战,探索如何对Q
- 2024-10-17自主部署开源大语言模型:技术实践与应用探索
self-llm开源大语言模型的崛起与自主部署的意义近年来,随着人工智能技术的飞速发展,大语言模型(LargeLanguageModels,LLMs)成为了AI领域的焦点。从GPT系列到BERT,再到最新的LLaMA、ChatGLM等,开源大语言模型正在改变着我们与AI交互的方式。然而,对于许多企业和个人用户来说,
- 2024-09-22模型部署系列 | 如何本地部署LLM服务?以ollama为例
简介小伙伴们好,我是微信公众号《小窗幽记机器学习》的小编:卖沙茶面的小男孩。这篇小作文主要介绍如何使用ollama在本地部署大模型服务。更多关于大模型相关,如模型解读、模型微调、模型部署、推理加速等,可以留意本微信公众号《小窗幽记机器学习》。安装ollama安装过程需要
- 2024-06-10阿里通义千问 Qwen2 大模型开源发布
阿里通义千问Qwen2大模型开源发布Qwen2系列模型是Qwen1.5系列模型的重大升级。该系列包括了五个不同尺寸的预训练和指令微调模型:Qwen2-0.5B、Qwen2-1.5B、Qwen2-7B、Qwen2-57B-A14B以及Qwen2-72B。在中文和英文的基础上,Qwen2系列的训练数据中还增加了其他27种语
- 2024-05-16LLM实战:LLM微调加速神器-Unsloth + Qwen1.5
1.背景上一篇介绍了基于训练加速框架Unsloth,微调训练Llama3的显卡资源占用及训练时间对比。近期Unsloth新增了Qwen1.5的模型适配,因此本qiang~马不停蹄地又进行了一次实验对比。对Unsloth的简介,感兴趣的客观可以查阅上一篇《LLM微调加速神器:Unsloth+LLama3》。2.实战本着
- 2024-05-07检索增强生成(RAG)实践:基于LlamaIndex和Qwen1.5搭建智能问答系统
检索增强生成(RAG)实践:基于LlamaIndex和Qwen1.5搭建智能问答系统什么是RAGLLM会产生误导性的“幻觉”,依赖的信息可能过时,处理特定知识时效率不高,缺乏专业领域的深度洞察,同时在推理能力上也有所欠缺。正是在这样的背景下,检索增强生成技术(Retrieval-AugmentedGeneration,RAG
- 2024-04-23Qwen1.5微调
引子由于工作上需要,一直在用Qwen做大模型推理,有个再训练的需求,特此琢磨下Qwen的训练。OK,我们开始吧。一、安装环境查看显卡驱动版本根据官网推荐OK,docker在手,天下我有。dockerpullqwenllm/qwen:cu117dockerrun-it--rm--gpus=all-v/mnt/code/LLM_Service/:/work
- 2024-04-10阿里开源的32B大模型到底强在哪里?
阿里巴巴最近开源了一个320亿参数的大语言模型Qwen1.5-32B,网上都说很强很强,那么它到底强在哪里呢?更高的性价比Qwen1.5-32B中的B是billion的意思,也就是10亿,32B就代表320亿参数量。阿里之前还开源过一个大模型Qwen-1.5-72B,72B就代表720亿参数量。相比之前开源的Qwen-1.5-72B,Qwe
- 2024-03-29LangChain SQL介绍以及使用Qwen1.5执行SQL查询教程
该模块可以让我们向LLM提问时从数据库中查询数据并做出回答。架构SQLchain和agent的高层抽象架构:问题转查询SQL:使用LLM将用户输入转成SQL查询执行SQL查询:执行SQL语句回答问题:LLM根据数据库查询结果返回回答内容环境安装安装必要环境和包pipinstall--upgrade--quiet
- 2024-03-28开源模型应用落地-qwen1.5-7b-chat-LoRA微调(二)
一、前言 预训练模型提供的是通用能力,对于某些特定领域的问题可能不够擅长,通过微调可以让模型更适应这些特定领域的需求,让它更擅长解决具体的问题。 本篇是开源模型应用落地-qwen-7b-chat-LoRA微调(一)进阶篇,学习通义千问最新1.5系列模型的微调方