首页 > 其他分享 >大语言模型量化方法对比:GPTQ、GGUF、AWQ

大语言模型量化方法对比:GPTQ、GGUF、AWQ

时间:2023-11-16 11:12:42浏览次数:30  
标签:GGUF GPTQ 示例 torch AWQ pipe LLM import 加载

在过去的一年里,大型语言模型(llm)有了飞速的发展,在本文中,我们将探讨几种(量化)的方式,除此以外,还会介绍分片及不同的保存和压缩策略。

说明:每次加载LLM示例后,建议清除缓存,以防止出现OutOfMemory错误。

  1. del model, tokenizer, pipe
  2. import torch
  3. torch.cuda.empty_cache()

如果在jupyter中无法释放显存,请重启这个jupyter notebook。

模型加载

加载LLM的最直接、最普通的方式是通过

标签:GGUF,GPTQ,示例,torch,AWQ,pipe,LLM,import,加载
From: https://www.cnblogs.com/deephub/p/17835763.html

相关文章