• 2024-08-12AI模型常见的压缩技术分类
    文章目录PruningQuantizationKnowledgedistillationPruningPruning把模型里一些不重要的权重砍掉,减少网络模型中参数量和计算量,同时尽量保证模型的性能不受影响。QuantizationQuantization.模型量化就是将训练好的深度神经网络的权值,激活值等从高精度转化成低精
  • 2024-06-04Efficient Pruning of Large Language Model with Adaptive Estimation Fusion
    本文是LLM系列文章,针对《EfficientPruningofLargeLanguageModelwithAdaptiveEstimationFusion》的翻译。基于自适应估计融合的大型语言模型的高效修剪摘要1引言2相关工作3方法4实验5结论摘要大型语言模型(LLM)已经成为许多生成下游任务的关键,这