[1] 总览
【BERT-多标签文本分类实战】系列共七篇文章:
【BERT-多标签文本分类实战】之一——实战项目总览
【BERT-多标签文本分类实战】之二——BERT的地位与名词术语解释
【BERT-多标签文本分类实战】之三——多标签文本分类的方向与常用数据集介绍
【BERT-多标签文本分类实战】之四——数据集预处理
【BERT-多标签文本分类实战】之五——BERT模型库的挑选与Transformers
【BERT-多标签文本分类实战】之六——数据加载与模型代码
【BERT-多标签文本分类实战】之七——训练-评估-测试与运行主程序
目前来看,如果方向是文本分类的话,英文文本分类、中文文本分类都需要掌握。
很多数据集都是英文的,比如多标签文本数据集、层次结构标签文本数据集,想在方向上更进一步的话,必须得学会处理英文文本。
而随着近些年的发展,bert算是表现超级好的几种模型之一,所以有必要跑一跑bert相关的模型。
[2] 代码获取地址
如果需要本组件的源代码,请扫描关注我的公众号,回复“bert实战”。
代码结构如图所示:本项目使用pytorch实现。
[3] 实战前需要掌握的知识
1、了解pytorch基本操作;
2、掌握嵌入层、预训练词向量的概念;
3、掌握神经网络模型相关的基本概念;
4、了解bert模型的相关知识;
[4] 另一个项目:【英文单标签文本分类实战】
您还可以浏览我的另外一个项目博客:【英文单标签文本分类实战】。
>=点击此处浏览=<
[5] 进行下一篇实战
【BERT-多标签文本分类实战】之二——BERT的地位与名词术语解释