OpenAI ChatGPT出来后,热闹了好一阵子!
先是一波大厂闭源PK。然后Meta不按套路出牌,直接放出来开源的Llama1-2
后来就百花齐放了。
但是外国的模型默认情况下中文支持都不好。
另外很多开源模型,最简单的对话都一塌糊涂。
今天来玩一个不错的中文开源模型。
先来简单看下本地运行的效果和速度。
还不错吧。
我的感觉是,整体体验很不错!
官方的测评数据来看也确实是有点强,另外这个项目文档完善,也比较容易上手。
官方的项目文档非常全面。
提供了简洁明了的模型介绍:
- Baichuan 2 是百川智能推出的新一代开源大语言模型 2.6 万亿
- Baichuan 2 在多个权威的中文、英文和多语言的通用、领域 benchmark 上取得同尺寸最佳
- 本次发布包含有 7B13B Base Chat 4bits 量化
- 所有版本对学术研究完全开放。同时,开发者通过邮件申请并获得官方商用许可后,即可免费商用
![](https://picx.zhimg.com/80/v2-10690d22d932c6a82e377019fe1c7383_1440w.jpg)
![](https://picx.zhimg.com/80/v2-703183bffd37613fa927ba6ac1e93001_1440w.jpg)
![](https://pic1.zhimg.com/80/v2-1959caa1e7daeb1b653aea4426e6691f_1440w.jpg)
![](https://picx.zhimg.com/80/v2-df61454b8280362f5e3b8c742101cb6c_1440w.jpg)
![](https://picx.zhimg.com/80/v2-05f589682ae90539944213b7cd5040ff_1440w.jpg)
3.安装依赖 进入项目目录,并安装依赖。 cd baichuan2 4.安装量化包 使用4bits的话,需要安装这个量化包,默认安装的包不行! python -m pip install bitsandbytes --prefer-binary --extra-index-url=https://jllllll.github.io/bitsandbytes-windows-webui 5.安装加速包 pip install xformers 6.安装PyTorch 2.0.1 这个东西肯定肯定少不了。 torch==2.0.1+cu118 --extra-index-url https://download.pytorch.org/whl/cu118 文件比较大,下载可能有困难,可以设置pip镜像加速。
7.修改代码,4bit量化! 改一下代码 def init_model(): model = AutoModelForCausalLM.from_pretrained("Baichuan2-7B-Chat-4bits", device_map="auto", trust_remote_code=True) model.generation_config = GenerationConfig.from_pretrained( "Baichuan2-7B-Chat-4bits" ) tokenizer = AutoTokenizer.from_pretrained( "Baichuan2-7B-Chat-4bits", use_fast=False, trust_remote_code=True ) return model, tokenizer 如果不改代码,我打打包票没有几张卡能跑得起来。所以,这里改代码完全是为了,降低设备要求。
8.下载模型和配置文件 下载最好分两步,一步下载所有小文件。 git lfs install set GIT_LFS_SKIP_SMUDGE=1 git clone https://huggingface.co/baichuan-inc/Baichuan2-7B-Chat-4bits 然后打开网址,单独去下载模型文件。 使用git命令一次性下载模型,往往容易卡住,下载时间不可控。 9. 运行 全部准备好之后,就可以运行demo了。 python cli_demo.py 量化版因为模型比较小,启动挺快。启动后第一次对话会稍微慢一点,后面就好了。 运行效果如下:
![](https://picx.zhimg.com/80/v2-c3e259429fbdb6c2cdee8db3aab662d4_1440w.jpg)
![](https://pica.zhimg.com/80/v2-61ba51a90aced517f875c4b138a6df89_1440w.jpg)
![](https://pic1.zhimg.com/80/v2-8162e603594bc6470c67ea3b70f26404_1440w.jpg)
![](https://picx.zhimg.com/80/v2-33746d6c181feef6e88ba92f955d9874_1440w.jpg)