首页 > 其他分享 >Transformer从入门到精通的实战指南看这本书就够了—《Transformers in Action》(附PDF)

Transformer从入门到精通的实战指南看这本书就够了—《Transformers in Action》(附PDF)

时间:2024-09-18 15:55:00浏览次数:10  
标签:NLP Transformer Transformers 模型 就够 生成 文本


前言

Transformers in Action 将革命性的 Transformers 架构添加到您的 AI 工具包中。您将深入了解模型架构的基本细节,通过易于理解的示例和巧妙的类比解释所有复杂的概念 - 从袜子分类到滑雪!即使是复杂的基础概念也从实际应用开始,因此您永远不必为抽象理论而苦恼。这本书包括一个广泛的代码存储库,可让您立即开始播放和探索不同的 LLM。

Transformer从入门到精通的实战指南看这本书就够了—《Transformers in Action》(附PDF)_深度学习

在这个有趣的指南中,您将首先将转换器应用于基本的 NLP 任务,如文本摘要和文本分类。然后,您将通过生成文本、使用强化学习磨练文本生成、开发多模态模型和小样本学习等任务将 transformer 推得更远。您将发现有关提示工程的独一无二的建议,以及用于优化和调整大型语言模型的成熟和测试方法。此外,您还会发现 AI 道德的独特报道,例如减少偏见和负责任的使用。
在本书内搜索

适合读者

适用于初级和经验丰富的数据科学家和机器学习工程师。读者应该熟悉 ML、Python 和常见数据工具的基础知识。

关于作者

Nicole Koenigstein 是一位杰出的数据科学家和定量研究员。她目前是Wyden Capital的首席数据科学家和人工智能与定量研究的负责人。


目录

第1部分:Transformer简介

  • 1对Transformer的需求
  • 深入了解Transformer

第⒉部分:用于基本NLP任务的Transformer

  • 3文本摘要
  • 4机器翻译
  • 5文本分类

第3部分:高级模型和方法

  • 6文本生成
  • 7控制生成的文本
  • 8多模态模型
  • 9优化和评估大型语言模型
  • 10合乎道德和负责任的大型语言模型
  • 附录






标签:NLP,Transformer,Transformers,模型,就够,生成,文本
From: https://blog.51cto.com/u_16163480/12046903

相关文章

  • 2024年JCR一区极光优化算法+分解对比!VMD-PLO-Transformer-BiLSTM多变量时间序列光伏功
    中秋献礼!2024年中科院一区极光优化算法+分解对比!VMD-PLO-Transformer-LSTM多变量时间序列光伏功率预测目录中秋献礼!2024年中科院一区极光优化算法+分解对比!VMD-PLO-Transformer-LSTM多变量时间序列光伏功率预测效果一览基本介绍程序设计参考资料效果一览......
  • Andrej Karpathy最新采访:认知核心模型10亿参数就够了,AI会打破教育不公的僵局
     作者|海野AI圈子的红人,AI大神AndrejKarpathy,曾是OpenAI联合创始人之一,特斯拉AI总监。上一次的动态是官宣创办一家名为EurekaLabs的人工智能+教育公司 ,宣布将长期致力于AI原生教育。近日,AndrejKarpathy接受了NoPriors(投资博客)的采访,与硅谷知名投资人SaraGuo和EladG......
  • 大模型技术学习过程梳理,非常详细收藏我这一篇就够了
    学习大模型技术也有几个月的时间了,之前的学习一直是东一榔头,西一棒槌,这学一点那学一点,虽然弄的乱七八糟,但对大模型技术也算有了一个初步的认识。因此,今天就来整体梳理一下大模型技术的框架,争取从大模型所涉及的理论,技术,应用等多个方面对大模型进行梳理。01大模型技术梳理......
  • 零基础入门大模型:一步步教你梳理大模型技术学习过程,收藏这一篇就够了!
    “学习是一个从围观到宏观,从宏观到微观的一个过程”今天整体梳理一下大模型技术的框架,争取从大模型所涉及的理论,技术,应用等多个方面对大模型进行梳理。01大模型技术梳理这次梳理大模型不仅仅是大模型本身的技术,而是一个以大模型为核心的涉及到多个方面的理论,技术和应用......
  • CAS-ViT:用于高效移动应用的卷积加法自注意力视觉Transformer
    近年来,VisionTransformer(ViT)在计算机视觉领域取得了巨大突破。然而ViT模型通常计算复杂度高,难以在资源受限的移动设备上部署。为了解决这个问题,研究人员提出了ConvolutionalAdditiveSelf-attentionVisionTransformers(CAS-ViT),这是一种轻量级的ViT变体,旨在在效率和性......
  • 中秋献礼!2024年中科院一区极光优化算法+分解对比!VMD-PLO-Transformer-LSTM多变量时间
    中秋献礼!2024年中科院一区极光优化算法+分解对比!VMD-PLO-Transformer-LSTM多变量时间序列光伏功率预测目录中秋献礼!2024年中科院一区极光优化算法+分解对比!VMD-PLO-Transformer-LSTM多变量时间序列光伏功率预测效果一览基本介绍程序设计参考资料效果一览......
  • YoloV8改进策略:BackBone改进|Swin Transformer赋能YoloV8,性能跃升的新篇章
    摘要在深度学习领域,目标检测作为计算机视觉的核心任务之一,其性能的提升始终吸引着研究者们的目光。近期,我们创新性地将SwinTransformer这一前沿的Transformer架构引入到YoloV8目标检测模型中,通过替换其原有的主干网络,实现了检测性能的显著提升,为YoloV8系列模型注入了新的......
  • RT-DETR改进策略:BackBone改进|Swin Transformer,最强主干改进RT-DETR
    摘要在深度学习与计算机视觉领域,SwinTransformer作为一种强大的视觉Transformer架构,以其卓越的特征提取能力和自注意力机制,正逐步引领着图像识别与检测技术的革新。近期,我们成功地将SwinTransformer引入并深度整合至RT-DERT(一种高效的实时目标检测与识别框架)中,通过替换其......
  • Transformer详解
    1Transformer结构https://jalammar.github.io/illustrated-transformer/Transformer一个巨大的优点是:模型在处理序列输入时,可以对整个序列输入进行并行计算,不需要按照时间步循环递归处理输入序列。1.1Transformer宏观结构Transformer可以看作是seq2seq模型的一种,对比之前的RNN,......
  • [独家原创]基于(鳑鲏鱼)BFO-Transformer-GRU多特征分类预测【24年新算法】 (多输入单输
    [独家原创]基于(鳑鲏鱼)BFO-Transformer-GRU多特征分类预测【24年新算法】(单输入单输出)你先用你就是创新!!!(鳑鲏鱼)BFO优化的超参数为:隐藏层节点数、正则化系数、初始化学习率1.程序已经调试好,无需更改代码替换数据集即可运行!!!数据格式为excel!2.Transformer作为一种创新的神......