• 2025-01-01如何在梯度计算中处理bf16精度损失:混合精度训练中的误差分析
    如何在梯度计算中处理bf16精度损失:混合精度训练中的误差分析在现代深度学习训练中,为了加速计算并节省内存,越来越多的训练任务采用混合精度(MixedPrecision)技术,其中常见的做法是使用低精度格式(如bf16或fp16)进行前向传播和梯度计算,而使用高精度格式(如fp32)进行参数更新
  • 2024-12-06大模型--数据类型FP16 BF16--29
    1.参考https://blog.csdn.net/voiiid/article/details/114825246https://blog.csdn.net/shizheng_Li/article/details/1441409122.半精度浮点fp16这两种数据类型编程是经常遇见双精度double,64位单精度float,32位FP16(Half-precisionfloating-pointformat)它提供更高的
  • 2024-12-03NUS:LLM在BF16与RoPE上存在长上下文挑战