首页 > 其他分享 >Huggingface微调BART的代码示例:WMT16数据集训练新的标记进行翻译

Huggingface微调BART的代码示例:WMT16数据集训练新的标记进行翻译

时间:2023-03-23 10:59:22浏览次数:43  
标签:翻译 BART 训练 标记 模型 示例 WMT16 Huggingface

BART模型是用来预训练seq-to-seq模型的降噪自动编码器(autoencoder)。它是一个序列到序列的模型,具有对损坏文本的双向编码器和一个从左到右的自回归解码器,所以它可以完美的执行翻译任务。

如果你想在翻译任务上测试一个新的体系结构,比如在自定义数据集上训练一个新的标记,那么处理起来会很麻烦,所以在本文中,我将介绍添加新标记的预处理步骤,并介绍如何进行模型微调。

因为Huggingface Hub有很多预训练过的模型,可以很容易地找到预训练标记器。但是我们要添加一个标记可能就会有些棘手,下面我们来完整的介绍如何实现它,首先加载和预处理数据集。

完整文章:

https://avoid.overfit.cn/post/6a533780b5d842a28245c81bf46fac63

标签:翻译,BART,训练,标记,模型,示例,WMT16,Huggingface
From: https://www.cnblogs.com/deephub/p/17246619.html

相关文章