首页 > 其他分享 >自然语言处理预训练——预训练BERT

自然语言处理预训练——预训练BERT

时间:2023-11-18 20:55:38浏览次数:31  
标签:BERT 上下文 训练 词元 亿个 自然语言

  • 原始的BERT有两个版本,其中基本模型有1.1亿个参数,大模型有3.4亿个参数。

  • 在预训练BERT之后,我们可以用它来表示单个文本、文本对或其中的任何词元。

  • 在实验中,同一个词元在不同的上下文中具有不同的BERT表示。这支持BERT表示是上下文敏感的。

标签:BERT,上下文,训练,词元,亿个,自然语言
From: https://www.cnblogs.com/yccy/p/17841095.html

相关文章