网站首页
编程语言
数据库
系统相关
其他分享
编程问答
TRANSFORMERS
2024-11-11
《VATT: Transformers for Multimodal Self-Supervised Learning from Raw Video, Audio and Text》中文校对版
文章汉化系列目录文章目录文章汉化系列目录摘要1引言2相关工作2.1Vision中的Transformer2.2自监督学习3方法3.1标记化与位置编码3.1.1DropToken3.2Transformer架构3.3公共空间投影3.4多模态对比学习4实验4.1实验设置4.2结果4.2.1视频动作识别的微调4.2
2024-11-11
Transformers显存优化策略
(原创)Transformers显存优化简易策略(本教程目标:4G显存也能跑BERT-Large)
2024-11-11
PoliFormer:使用 Transformers 扩展策略在线 RL,打造熟练导航员
24年6月来自西雅图AI2的论文“PoliFormer:ScalingOn-PolicyRLwithTransformersResultsinMasterfulNavigators”,获得CoRL‘24最佳论文之一。POLIFORMER(策略Transformer),这是一个仅限RGB的室内导航智体,通过大规模强化学习进行端到端训练,尽管纯粹在模拟中训练,但它
2024-11-09
深入解析 Transformers 框架(四):Qwen2.5/GPT 分词流程与 BPE 分词算法技术细节详解
前面我们已经通过三篇文章,详细介绍了Qwen2.5大语言模型在Transformers框架中的技术细节,包括包和对象加载、模型初始化和分词器技术细节:深入解析Transformers框架(一):包和对象加载中的设计巧思与实用技巧深入解析Transformers框架(二):AutoModel初始化及Qwen2.5模型加载全
2024-11-03
Multi-criteria Token Fusion with One-step-ahead Attention for Efficient Vision Transformers
对于高效的ViT架构,近期研究通过对剪枝或融合多余的令牌减少自注意力层的二次计算成本。然而这些研究遇到了由于信息损失而导致的速度-精度平衡问题。本文认为令牌之间的不同关系以最大限度的减少信息损失。本文中提出了一种多标准令牌融合(Multi-criteriaTokenFusion),该融合
2024-11-01
深入解析 Transformers 框架(三):Qwen2.5 大模型的 AutoTokenizer 技术细节
前面2篇文章,我们通过查看Transformers包代码,学习了Transformer包模块API设计、模型初始化和加载流程:第1篇:transformers推理Qwen2.5等大模型技术细节详解(一)transformers包和对象加载第2篇:transformers推理Qwen2.5等大模型技术细节详解(二)AutoModel初始化
2024-10-27
transformers 推理 Qwen2.5 等大模型技术细节详解(二)AutoModel 初始化和模型加载(免费送新书)
接上文:transformers推理Qwen2.5等大模型技术细节详解(一)transformers包和对象加载老牛同学和大家通过Transformers框架的一行最常见代码fromtransformersimportAutoModelForCausalLM,走读了transformers包初始化代码的整个流程。从中体会到了dummy对象、LazyModule延迟
2024-10-24
太绝了,这本Ai大门的敲门砖!!住
《Hands-OnGenerativeAIwithTransformersandDiffusionModels》是一本关于生成式人工智能的实践指南。真的是真的!就这一本书敲开生成式AI大门!!这本2024的新书我读完两遍了,是我觉得最值得看的生成式AI书籍:Hands-onGenerativeAIwithTransformersandDiffusionMo
2024-10-18
transformers 推理 Qwen2.5 等大模型技术细节详解(一)transformers 初始化和对象加载(文末免费送书)
上周收到一位网友的私信,希望老牛同学写一篇有关使用transformers框架推理大模型的技术细节的文章。老牛同学刚开始以为这类的文章网上应该会有很多,于是想着百度几篇质量稍高一点的回复这位网友。结果,老牛同学搜索后发现,类似文章确实不少,但是总觉得不太满意,要么细节深度不够,要么
2024-10-18
spacy-transformers: 在spaCy中使用预训练Transformer模型
spacy-transformersspacy-transformers简介spacy-transformers是一个强大的库,它为spaCy提供了使用预训练Transformer模型的能力。这个库允许用户在spaCy管道中无缝集成像BERT、RoBERTa、XLNet和GPT-2这样的先进Transformer模型。通过spacy-transformers,我们可以轻松地将最先进
2024-10-15
Transformers: 引领自然语言处理的革命性工具
transformers引言:Transformers的崛起在人工智能和自然语言处理(NLP)领域,Transformers模型的出现无疑是一场革命。而HuggingFace公司开发的Transformers库,更是将这场革命推向了一个新的高度。作为一个开源项目,Transformers为研究人员和开发者提供了一个强大而灵活的工具,使他
2024-10-11
[Paper Reading] HPT: Scaling Proprioceptive-Visual Learning with Heterogeneous Pre-trained Transform
目录ScalingProprioceptive-VisualLearningwithHeterogeneousPre-trainedTransformersTL;DRMethodStemTrunkLossHeadExperiment训练资源效果可视化总结与发散相关链接资料查询ScalingProprioceptive-VisualLearningwithHeterogeneousPre-trainedTransformersScaling
2024-10-09
transformers和bert实现微博情感分类模型提升
关于深度实战社区我们是一个深度学习领域的独立工作室。团队成员有:中科大硕士、纽约大学硕士、浙江大学硕士、华东理工博士等,曾在腾讯、百度、德勤等担任算法工程师/产品经理。全网20多万+粉丝,拥有2篇国家级人工智能发明专利。社区特色:深度实战算法创新获取全部完整项目
2024-10-07
大模型配置学习
为什么在import里有一个GPT2,然后,在代码里面又有一个frompretrainedgpt2在import部分引入了GPT2Model后,在代码中使用GPT2Model.from_pretrained("gpt2")来加载预训练的模型。这样做的原因是,import只是引入了GPT2Model这个类,它提供了GPT-2的模型定义。而from_pretrai
2024-09-28
huggingface的transformers与datatsets的安装与使用
目录1.安装 2.分词2.1tokenizer.encode() 2.2tokenizer.encode_plus ()2.3tokenizer.batch_encode_plus() 3.添加新词或特殊字符 3.1tokenizer.add_tokens()3.2 tokenizer.add_special_tokens() 4.datasets的使用4.1加载datasets 4.2从dataset中取数据 4.3对datas
2024-09-26
transformers中的generate函数解读
转载:https://zhuanlan.zhihu.com/p/654878538这里仅当学习记录,请看原文,排版更丰富转载补充:https://www.likecs.com/show-308663700.html 这个非常的清晰明了,也建议前往学习今天社群中的小伙伴面试遇到了一个问题,如何保证生成式语言模型在同样的输入情况下可以保证同样的输出
2024-09-19
深度学习-16-深入理解BERT基于本地数据微调训练文本分类模型的流程
文章目录1加载库和设置通用参数1.1DistilBert1.2模型库1.3微调任务2准备数据2.1加载数据2.2切分数据2.3数据分词2.4制作数据集3使用TrainerAPI微调transformer3.1加载预训练模型3.2定义训练器3.3执行训练3.4评估性能3.5保存模
2024-09-18
Transformer从入门到精通的实战指南看这本书就够了—《Transformers in Action》(附PDF)
前言TransformersinAction将革命性的Transformers架构添加到您的AI工具包中。您将深入了解模型架构的基本细节,通过易于理解的示例和巧妙的类比解释所有复杂的概念-从袜子分类到滑雪!即使是复杂的基础概念也从实际应用开始,因此您永远不必为抽象理论而苦恼。这本书包括一个广
2024-09-15
【弱监督时间动作定位】Weakly-Supervised Temporal Action Localization with Multi-Modal Plateau Transformers 论文阅读
Weakly-SupervisedTemporalActionLocalizationwithMulti-ModalPlateauTransformers论文阅读Abstract1.Introduction2.RelatedWork3.TheProposedMethod3.1.PreliminaryandMotivation3.2.BaseModel3.3.Multi-ModalPlateauTransformers3.3.1Multi-Mo
2024-09-12
【代码分析1-视频目标分割AOT-数据处理部分】Associating Objects with Transformers for Video Object Segmentation
AOT代码分析前置阅读代码模块代码分析1静态数据处理1.1引入包1.2继承Dataset类1.3数据初始化1.4获取数据长度1.5获取数据2视频数据处理2.1数据初始化-父类VOSTrain2.2数据初始化-子类DAVIS2017_Train2.3获得数据长度2.4获得数据前置阅读papergithub文献
2024-09-10
墙裂推荐:《Transformer自然语言处理实战:使用Hugging-Face-Transformers库构建NLP应用》,行内人都在看的大模型神书!附PDF!
大家好,今天给大家推荐一本大模型神书——《Transformer自然语言处理实战:使用Hugging-Face-Transformers库构建NLP应用》。近年来,Transformer模型在NLP领域取得了显著成果。为了让广大开发者更好地掌握这一技术,给大家推荐一本实战教程——《Transformer自然语言处理实战:使用
2024-09-07
使用Blip的预训练好的imageEncoder并替换其textDecoder
fromtransformersimportBlipProcessor,BlipTextConfigfromtransformers.models.blip.modeling_blip_textimportBlipTextLMHeadModelfromtransformersimportAutoTokenizermodel=BlipForConditionalGeneration.from_pretrained("huggingface.co/Salesforc
2024-09-04
【HuggingFace Transformers】OpenAIGPTModel源码解析
OpenAIGPTModel源码解析1.GPT介绍2.OpenAIGPTModel类源码解析说到ChatGPT,大家可能都使用过吧。2022年,ChatGPT的推出引发了广泛的关注和讨论。这款对话生成模型不仅具备了强大的语言理解和生成能力,还能进行非常自然的对话,给用户带来了全新的互动体验。然而,ChatGPT
2024-09-03
论文阅读01-Improving Closed and Open-Vocabulary Attribute Prediction using Transformers
论文框架研究背景和动机这篇论文试图解决什么问题?为什么这个问题重要?这个问题在当前的研究领域中有哪些已知的解决方案?研究方法和创新点论文提出了什么新的方法或模型?这个方法或模型是如何工作的?它与现有的方法相比有哪些改进?论文中的创新点是否显著且有实际意义?理
2024-08-28
(十九)transformers解码策略
文本生成策略文本生成对于许多NLP任务至关重要,例如开放式文本生成、摘要、翻译和更多。它还在各种混合模态应用程序中发挥作用,这些应用程序将文本作为输出,例如语音到文本以及vision-to-text。一些可以生成文本的模型包括GPT2、XLNet、OpenAIGPT、CTRL、TransformerXL、XLM