• 2024-11-17从零开始的 LLM: nanoGPT 学习笔记(2/2)
    上篇:从零开始的LLM:nanoGPT学习笔记(1/2)尝试了完整的训练的过程,nanoGPT仓库中还有复现GPT2的代码,可惜对计算资源要求太高(基于OpenWebText数据集,8卡A100,训练4天),不是个人电脑玩的转了,只能跳过这一步,尝试后面的finetuning。finetuning1.训练数据跟pre-train一样