首页 > 其他分享 >Hinton坐阵!斯坦福CS25 Transformer专题讲座更新:多位AI大佬齐聚

Hinton坐阵!斯坦福CS25 Transformer专题讲座更新:多位AI大佬齐聚

时间:2022-12-20 23:01:47浏览次数:64  
标签:主讲人 Transformer Transformers CS25 专题讲座 课程 https Hinton

Hinton坐阵!斯坦福CS25 Transformer专题讲座更新:多位AI大佬齐聚_图灵奖

编辑:David Joey

【导读】斯坦福大牛Christopher Manning开设的Transformer联合讲座课程更新啦!这期请来的是Hinton大神。


图灵奖得主、深度学习教父Geoffrey Hinton在斯坦福线上开课啦?


本课程是斯坦福大学计算机科学家Christopher Manning教授开设的CS25: Transformers United联合讲座课程。


课程邀请了学术界和产业界关于Transformer架构的知名学者和工程师主讲,来自谷歌、OpenAI、牛津大学、Meta AI、DeepMind等学术机构和企业。


Hinton坐阵!斯坦福CS25 Transformer专题讲座更新:多位AI大佬齐聚_图灵奖_02


本讲座共分10期,随授课内容推进而陆续在线更新视频。(第一期为总览介绍)


最近更新的是最后一期,主讲人是大名鼎鼎的人工智能领域先驱人物、图灵奖得主Geoffrey Hinton。


讲座链接就放在这里啦,有兴趣的童鞋可以看看~

​https://www.youtube.com/playlist?list=PLoROMvodv4rNiJRchCzutFw5ItR_Z27CM​


Hinton坐阵!斯坦福CS25 Transformer专题讲座更新:多位AI大佬齐聚_神经网络_03


这期课程中,Hinton提出了一个关于表征的新想法,名为GLOM的想象系统,由几个不同团队研究成果的结合。


其中包括Transformer、神经场、对比性表征学习等内容。GLOM要解决的问题是,一个具有固定架构的神经网络如何能将一幅图像解析成一个「部分-整体」的层次结构,且结果对每一幅图像都是不同的?


GLOM背后的想法很简单,就是用相同矢量的岛屿来表示解析树中的节点。在这期讲座中,将讨论这个想法的影响。如果GLOM能够发挥作用,那么当其用于视觉或语言时,应该能极大地改善由类似transformer系统产生的表示的可解释性。


Hinton坐阵!斯坦福CS25 Transformer专题讲座更新:多位AI大佬齐聚_图灵奖_04


Hinton在这期讲座中将最近神经网络领域的三个重要成果融合在了一起,即Transformer、通过对比协议的非监督学习的视觉表示、以及使用神经野图像的生成模型。


Hinton坐阵!斯坦福CS25 Transformer专题讲座更新:多位AI大佬齐聚_图灵奖_05


Hinton表示,他将这三项成果组合在一起,搞出一个新的图像视觉系统,名叫GLOM, 比现有深度网络更接近人类认知。


Geoffrey Hinton是多伦多大学的名誉教授,深度学习界的领军人物,是引入反向传播算法的先驱研究者之一,并与他的研究小组一起,为推动神经网络领域的发展做出了重大突破和贡献。


Hinton坐阵!斯坦福CS25 Transformer专题讲座更新:多位AI大佬齐聚_神经网络_06


Hinton荣誉等身,曾获David E. Rumelhart奖、IJCAI卓越研究奖、Killam工程奖、IEEE Frank Rosenblatt奖章、NSERC Herzberg金奖、IEEE James Clerk Maxwell金奖、NEC C&C奖、BBVA奖、本田奖和图灵奖。


说了那么多,先来看看这十期课程都有哪些干货吧~


1.Introduction to Transformers(引入课程)


主讲人: Div Grag,Chetanya Rastogi,Advay Pal


Hinton坐阵!斯坦福CS25 Transformer专题讲座更新:多位AI大佬齐聚_生成模型_07


推荐阅读:Attention Is All You Need

论文地址:https://arxiv.org/abs/1706.03762


Hinton坐阵!斯坦福CS25 Transformer专题讲座更新:多位AI大佬齐聚_神经网络_08


2.Transformers in Language: GPT-3, Codex


主讲人:Mark Chen (OpenAI)


这节课的主讲人Mark Chen是来自OpenAI的一名研究科学家,负责管理OpenAI的算法团队。


他的研究兴趣包括生成建模和表示学习,尤其是在图像和多模态领域。Mark毕业于麻省理工学院,值得一提的是,Mark还是美国计算机奥赛的教练。


Hinton坐阵!斯坦福CS25 Transformer专题讲座更新:多位AI大佬齐聚_图灵奖_09


本节课程回顾了神经语言建模的最新进展,并讨论了生成文本(generating text)和解决下游任务之间的联系,并探讨OpenAI开发GPT模型的过程。接下来,我们将看到如何使用相同的方法在图像、文本到图像和代码等其他领域生成生成模型和强表示。课程最后,我们将深入研究最近发布的代码生成模型 Codex。


3.Transformers in Vision: Tackling problems in Computer Vision


主讲人:Lucas Beyer (Google Research Brain Team)


Hinton坐阵!斯坦福CS25 Transformer专题讲座更新:多位AI大佬齐聚_生成模型_10


推荐阅读:An Image is Worth 16x16 Words: Transformers for Image Recognition at Scale

论文地址:https://arxiv.org/abs/2010.11929


4. Decision Transformer: Reinforcement Learning via Sequence Modeling


主讲人:Aditya Grover


Hinton坐阵!斯坦福CS25 Transformer专题讲座更新:多位AI大佬齐聚_图灵奖_11


推荐阅读:Pretrained Transformers as Universal Computation Engines

论文地址:https://arxiv.org/abs/2103.05247


5. Mixture of Experts (MoE) paradigm and the Switch Transformer


主讲人:Barret Zoph (Google Brain) ,Irwan Bello,Liam Fedus


Hinton坐阵!斯坦福CS25 Transformer专题讲座更新:多位AI大佬齐聚_图灵奖_12


6.Deep Mind's Perceiver and Perceiver IO: new data family architecture


主讲人:Andrew Jaegle (DeepMind)


Hinton坐阵!斯坦福CS25 Transformer专题讲座更新:多位AI大佬齐聚_神经网络_13


7.Self Attention and Non-parametric transformers (NPTs)


主讲人:Aidan Gomez (University of Oxford)


Hinton坐阵!斯坦福CS25 Transformer专题讲座更新:多位AI大佬齐聚_神经网络_14


8.Transformer Circuits, Induction Heads, In-Context Learning


主讲人:Chris Olah (Anthropic AI)


Hinton坐阵!斯坦福CS25 Transformer专题讲座更新:多位AI大佬齐聚_图灵奖_15


9.Audio Research: Transformers for Applications in Audio, Speech and Music


主讲人:Prateek Verma (Stanford)


Hinton坐阵!斯坦福CS25 Transformer专题讲座更新:多位AI大佬齐聚_图灵奖_16


参考资料:

​https://twitter.com/DivGarg9/status/1545541542235975682?s=20&t=_Ed9dpjD9Qpx4svpMNDIKQ&fbclid=IwAR2tnSQROnkOQl15aa6nkfNFaJdrnZQHDbidooDaQRJALlWsYMiQU_37dn4​

​https://web.stanford.edu/class/cs25/​

Hinton坐阵!斯坦福CS25 Transformer专题讲座更新:多位AI大佬齐聚_图灵奖_17


标签:主讲人,Transformer,Transformers,CS25,专题讲座,课程,https,Hinton
From: https://blog.51cto.com/u_15810690/5956992

相关文章

  • 『NLP学习笔记』Transformer技术详细介绍
    Transformer技术详细介绍!文章目录​​一.整体结构图​​​​二.输入部分​​​​2.1.词向量​​​​2.2.位置编码​​​​三.注意力机制​​​​3.1.注意力机制的本......
  • 利用Transformers库解决序列标注问题
    目录前言数据集说明前言序列标注(SequenceLabeling/Tagging),其目标是为文本中的每一个token分配一个标签,因此Transformers库也将其称为token分类任务。常见的序......
  • Transformers库之快速分词器组件
    目录快速分词器使用快速分词器模仿pipeline组件的行为序列标注任务抽取式问答任务快速分词器实际上,HuggingFace共提供了两种分分词器:慢速分词器:Transformers库自带,......
  • Transformers库之模型(Model)组件和分词器(Tokenizer)组件
    目录模型加载模型保存模型分词器分词策略加载与保存分词器编码与解码文本处理多段文本Padding操作Attentionmasks直接使用分词器编码句子对模型在之前介绍pipeline组......
  • 经典文献阅读之--Swin Transformer
    OverridetheentrypointofanimageIntroducedinGitLabandGitLabRunner9.4.Readmoreaboutthe extendedconfigurationoptions.Beforeexplainingtheav......
  • 【机器学习】李宏毅——Transformer
    Transformer具体就是属于Sequence-to-Sequence的模型,而且输出的向量的长度并不能够确定,应用场景如语音辨识、机器翻译,甚至是语音翻译等等,在文字上的话例如聊天机器人、文章......
  • Transformers 库pipeline组件
    目录pipeline组件基本用法pipeline组件基本用法Transformers库将目前的NLP任务归纳为以下几类:文本分类:例如情感分析、句子对关系判断等;对文本中的词语进行分类:例如词......
  • 【五期杨志】CCF-A(NeurIPS’21) VATT: Transformers for Multimodal Self-Supervised
    Akbari,Hassan,etal."Vatt:Transformersformultimodalself-supervisedlearningfromrawvideo,audioandtext."AdvancesinNeuralInformationProcessing......
  • 强的离谱,Transformer 杀疯了!
    前段时间Transformer已席卷计算机视觉领域,并获得大量好评,如『基于Swin-Transformer』、『美团提出具有「位置编码」的Transformer,性能优于ViT和DeiT』、『LiftingTransfo......
  • 基于Vision Transformers的文档理解简介
    文档理解是从pdf、图像和Word文档中提取关键信息的技术。这篇文章的目标是提供一个文档理解模型的概述。文档理解算法使用编码器-解码器结构分析文档内容,该管道结合了计算......