• 2025-01-18腾讯混元发布浮点量化训练新理论,揭示大模型训练的极限
    在大模型(LargeLanguageModel,LLM)快速发展的今天,模型的训练和推理成本日益成为研究和应用的关注焦点。最近,腾讯混元团队发布了一项重要研究,深入探讨了低比特浮点量化训练的“ScalingLaws”,即浮点数量化训练的规模法则。此项研究的核心在于通过降低模型的精度,探索如何在不