通过从头开始构建一个大型语言模型,了解如何创建、训练和调整大型语言模型 (LLMs)!
一、构建大型语言模型(从头开始)
在《构建大型语言模型(从头开始)》中,你将了解如何LLMs从内到外工作。在这本富有洞察力的书中,畅销书作家塞巴斯蒂安·拉施卡 (Sebastian Raschka) 将指导你逐步创建自己的 LLM,用清晰的文字、图表和示例解释每个阶段。你将从最初的设计和创建到通用语料库的预训练,一直到特定任务的微调。
构建大型语言模型(从头开始)教你如何:
- 规划和编码 LLM 的所有部分
- 准备适合 LLM 训练的数据集
- 微调 LLM 以进行文本分类和您自己的数据
- 应用指令调整技术,以确保您的 LLM 遵循指令
- 将预训练权重加载到 LLM 中
为 ChatGPT、Bard 和 Copilot 等尖端 AI 工具提供支持的大型语言模型 (LLM) 似乎是一个奇迹,但它们并不是魔术。
这本书通过帮助你从头开始构建自己的 LLM 来揭开 LLM 的神秘面纱。你可以获得对 LLM 如何工作的独特而有价值的见解,学习如何评估它们的质量,并掌握具体的技术来微调和改进它们。
有需要这本书籍PDF文档,可以微信扫描下方CSDN官方认证二维码,免费领取【保证100%免费】
二、书籍内容
第一章 理解大型语言模型(Understanding Large Language Models)
1.1 什么是LLM?(What is an LLM?)
1.2 LLM的应用(Applications of LLMs)
1.3 建立和使用LLM的阶段(Stages of building and using LLMs)
1.4 将LLM用于不同的任务(Using LLMs for different tasks)
1.5 利用大数据集(Utilizing large datasets)
1.6 仔细观察GPT架构(A closer look at the GPT architecture)
1.7 构建大语言模型(Building a large language model)
1.8总结(Summary)
第二章 处理文本数据(Working with Text Data)
第三章 编码注意机制(Coding Attention Mechanisms)
第四章 从零开始实现GPT模型以生成文本(Implementing a GPT model from Scratch To Generate Text)
第五章 在无标注数据上的预训练(Pretraining on Unlabeled Data)
标签:从头开始,语言,Language,LLMs,模型,Large,构建,LLM From: https://blog.csdn.net/m0_56255097/article/details/142055179有需要这本书籍PDF文档,可以微信扫描下方CSDN官方认证二维码,免费领取【保证100%免费】