• 2024-04-04记录一次Windows11本地部署Qwen1.5-0.5B AWQ模型的经历
    直接上代码,来自魔搭的模型通义千问1.5-0.5B-Chat-AWQ·模型库(modelscope.cn)frommodelscopeimportAutoModelForCausalLM,AutoTokenizerdevice="cuda"#thedevicetoloadthemodelontomodel=AutoModelForCausalLM.from_pretrained("qwen/Qwen1.5-0.5B-C
  • 2023-11-07用 bitsandbytes、4 比特量化和 QLoRA 打造亲民的 LLM
    众所周知,LLM规模庞大,如果在也能消费类硬件中运行或训练它们将是其亲民化的巨大进步。我们之前撰写的LLM.int8博文展示了我们是如何将LLM.int8论文中的技术通过bitsandbytes库集成到transformers中的。在此基础上,我们不断努力以不断降低大模型的准入门槛。在此过程中,我
  • 2023-11-06jupyter 下 bitandbytes报错记录
    背景:在jupyter中加载baichuan大模型时报错报错一:frompeftimportPeftModel 报错报错提示:python-mbitsandbytes执行python-mbitsandbytes时又报错,报错内容为:Traceback(mostrecentcalllast):File"/home/miniconda3/envs/vllm/lib/python3.10/runpy.py",lin