• 2024-07-16YOLOv10改进 | 注意力篇 | YOLOv10引入Shuffle Attention注意力
    1. ShuffleAttention介绍1.1 摘要:注意力机制使神经网络能够准确地关注输入的所有相关元素,已成为提高深度神经网络性能的重要组成部分。计算机视觉研究中广泛使用的注意力机制主要有两种:空间注意力和通道注意力,其目的分别是捕获像素级的成对关系和通道依赖性。虽然将它
  • 2024-03-20多模态大模型论文总结
    A survey of resource-efficient llm and multimodal foundation models大型基础模型,包括大型语言模型(LLM)、视觉变压器(ViT)、扩散和基于LLM的多模态模型,正在彻底改变从培训到部署的整个机器学习生命周期。然而,这些模型在多功能性和性能方面的实质性进步在硬件资源
  • 2023-09-28【DL基础】理解GFLOPs、GMACs、FMA之间的关系
    前言 参考1. GFLOPs、GMACs、FMA之间的关系_touchwolf的博客-CSDN博客;2. WhatistherelationshipbetweenGMACsandGFLOPs?·Issue#16·sovrasov/flops-counter.pytorch;完 
  • 2023-02-21【论文阅读】SCRFD: Sample and Computation 重分配的高效人脸检测
    原始题目SampleandComputationRedistributionforEfficientFaceDetection中文名称采样和计算重分配的高效人脸检测发表时间2021年5月10日平台IC
  • 2022-12-09云计算-CPU 并行编程-科研路-电动汽车分析
    云计算-CPU并行编程-科研路-电动汽车分析参考文献链接https://mp.weixin.qq.com/s/TSsmcW2i8so_dZ86TRKn0Ahttps://mp.weixin.qq.com/s/19vs_187sVEpW7c4L2aT5whttps:
  • 2022-08-20FLOPS和FLOPs、GFLOPs区别与计算
    FLOPS(全部大写)是floating-pointoperationspersecond的缩写,意指每秒浮点运算次数。用来衡量硬件的性能。FLOPs是floatingpointofoperations的缩写,是浮点运算次数,可