网站首页
编程语言
数据库
系统相关
其他分享
编程问答
DiTFastAttn
2024-10-30
无问芯穹DiTFastAttn 中稿NeurIPS,减少76%注意力计算量,加速比最高可达180%
《DiTFastAttn:AttentionCompressionforDiffusionTransformerModels》一文由清华大学、无问芯穹和上海交通大学的研究团队联合发表,成功入选NeurIPS会议。该研究针对图像生成模型中的计算效率问题,提出了一种新的后训练压缩方法DiTFastAttn。这种方法最多可减少76%的