首页 > 其他分享 >【BERT-多标签文本分类实战】之四——数据集预处理

【BERT-多标签文本分类实战】之四——数据集预处理

时间:2023-01-16 21:37:18浏览次数:41  
标签:BERT val 标签 label content 之四 文本 数据 预处理

[1] 数据集预处理的流程

  在拿到数据集之后,我们关心接下来操作的步骤:

  · 查看数据集的基本数据
  · 分析数据集的标签构成
  · 数据集拆分成训练集、验证集、测试集
  · 处理数据集的文本数据(首先了解​​​bert​​模型的输入)

  为什么要这样做?

  对于一个新数据集,我们需要:1)把文本转化成嵌入向量;2)把文本的标签转化成独热数组;3)拆分数据集。除此之外,我们还应该关心数据集平均一个本文有几个标签、最多有几个标签、最少有几个标签,哪些标签出现的比较频繁,这些有助于我们加深对数据集、任务难点的了解。

【注】
  1、嵌入向量:在使用预训练词向量的时候,首先会构建一个词典,然后把文本里面的每个单词逐个转化成词典里面对应的序号,最后根据序号再去预训练词向量里面找对应单词的d维向量,于是一条文本就变成了​​pad_size * d​​​的嵌入向量。
  2、独热数组:是由0-1构成的数组。假设数据集中有5个标签​​{a,b,c,d,e}​​​,文本的实际标签是​​{b,c}​​​,那么它的独热数组就是​​[0,1,1,0,0]​​。

[2] 查看数据集的基本数据

  数据集​​Rruters-21578​​​的初始数据是放在​​xlsx​​文件中的,如下图。

【BERT-多标签文本分类实战】之四——数据集预处理_bert


  我们观察到该数据集:

  · 共有10788条数据,其中第2-3020条是​​test​​​数据,第3021-10789条是​​training​​​数据,需要进一步划分;
  · 标签是以数组转成字符串形式存储:​​​['grain', 'rice']​​​;
  · 文本以英文形式存储,里面有大小写、特殊字符等,需要我们额外处理一下。

[3] 分析数据集的标签构成

  首先读取数据集,利用正则表达式把每个文本的标签提取出来,查看一共有多少标签:

dataset_path = r'@_数据集_原始/Reuters-21578/reutersNLTK.xlsx'
df = pd.read_excel(dataset_path, encoding='utf-8', sep=',')

result_single = {} // 统计每个标签出现的次数
result_multi = {}

a = [] // 存放每个文本的标签,可重复,一维数组
b = [] // 存放每个文本的标签数量,一维数组

# 提取标签
for ls in df['categories']:
b.append(len(re.compile(r"'(.*?)'").findall(ls)))
for l in re.compile(r"'(.*?)'").findall(ls):
a.append(l)

# 计算标签次数
for i in set(a):
result_single[i] = a.count(i)

# 倒叙排列后输出
label_list = sorted([_ for _ in result_single.items()], key=lambda x: x[1], reverse=True)
print(label_list)

  输出结果: ​​[('earn', 3964), ('acq', 2369), ('money-fx', 717), ('grain', 582), ('crude', 578), ('trade', 485), ('interest', 478), ('ship', 286), ('wheat', 283), ('corn', 237), ('dlr', 175), ('money-supply', 174), ('oilseed', 171), ('sugar', 162), ('coffee', 139), ('gnp', 136), ('gold', 124), ('veg-oil', 124), ('soybean', 111), ('nat-gas', 105), ('bop', 105), ('livestock', 99), ('cpi', 97), ('cocoa', 73), ('reserves', 73), ('carcass', 68), ('jobs', 67), ('copper', 65), ('cotton', 59), ('yen', 59), ('rice', 59), ('alum', 58), ('gas', 54), ('iron-steel', 54), ('ipi', 53), ('barley', 51), ('meal-feed', 49), ('rubber', 49), ('palm-oil', 40), ('sorghum', 34), ('zinc', 34), ('pet-chem', 32), ('tin', 30), ('silver', 29), ('wpi', 29), ('lead', 29), ('rapeseed', 27), ('strategic-metal', 27), ('orange', 27), ('soy-meal', 26), ('soy-oil', 25), ('retail', 25), ('fuel', 23), ('hog', 22), ('housing', 20), ('heat', 19), ('sunseed', 16), ('lumber', 16), ('income', 16), ('lei', 15), ('oat', 14), ('dmk', 14), ('tea', 13), ('platinum', 12), ('groundnut', 9), ('nickel', 9), ('rape-oil', 8), ('l-cattle', 8), ('coconut-oil', 7), ('sun-oil', 7), ('instal-debt', 6), ('potato', 6), ('propane', 6), ('naphtha', 6), ('coconut', 6), ('jet', 5), ('nzdlr', 4), ('cpu', 4), ('palladium', 3), ('nkr', 3), ('dfl', 3), ('copra-cake', 3), ('cotton-oil', 3), ('palmkernel', 3), ('rand', 3), ('lin-oil', 2), ('castor-oil', 2), ('sun-meal', 2), ('groundnut-oil', 2), ('rye', 2)]​

  可以看到,10788条文本数据中,标签为​​earn​​的文本有3964个。接下来我们查看标签个数、文本标签数目:

label_key = [word_count[0] for idx, word_count in enumerate(label_list)]
label_val = [word_count[1] for idx, word_count in enumerate(label_list)]

print("标签个数:", len(label_key))
print("文本标签数目:", set(b))

print("每个文本平均有标签:", sum(label_val) / len(df['categories']))

  输出结果:
  ​​​标签个数: 90​​​  ​​文本标签数目: {1, 2, 3, 4, 5, 6, 7, 8, 9, 10, 11, 12, 14, 15}​​  ​​每个文本平均有标签: 1.235446792732666​

  可以看到,每个文本平均有1.2个标签,相对其他数据集来说,是极低的。数据集中文本标签个数为1, 2, 3, 4, 5, 6, 7, 8, 9, 10, 11, 12, 14, 15的都有,我们详细查看它们的分布:

k = {}
# 计算共现标签
for i in set(b):
k[i] = b.count(i)
print(k)

  输出结果:​​{1: 9160, 2: 1173, 3: 255, 4: 91, 5: 52, 6: 27, 7: 9, 8: 7, 9: 5, 10: 3, 11: 2, 12: 1, 14: 2, 15: 1}​

  有9160条文本只有1个标签,有1173条文本是2个标签,再往后就很稀疏了。

【注】如何提高模型对这些稀疏数据的预测性能,这也是多标签文本分类中的研究难题。

[4] 数据集拆分成训练集、验证集、测试集

  我们把数据集中3019条test,分为1500条验证文本和1519条测试文本。在拆分过程中记得要打乱顺序:

import random
import pandas as pd

dataset_path =r'@_数据集_原始/Reuters-21578/reutersNLTK.xlsx'

df = pd.read_excel(dataset_path, encoding='utf-8', sep=',')

""" 多标签数据集划分 Reuter-21578
label_name : 标签列名
content_name : 内容列名
export_name : 导出的文件名
proportion : 训练-验证-测试比例, 数组, 加和为10, eg: [7,1.5,1.5]
"""


def divideDataSet(label_name, content_name, export_name, proportion):
contents = df[content_name]
labels = df[label_name]
ids = df['ids']

train, val, test = [], [], []

for i, id in enumerate(ids):
if id[:3] == 'tra':
train.append({'label': labels[i], 'content': contents[i]})
else:
val.append({'label': labels[i], 'content': contents[i]})

random.shuffle(train)
random.shuffle(val)

test = val[:1500]
val = val[1500:]

print(len(train), len(val), len(test))

random.shuffle(train)
random.shuffle(val)
random.shuffle(test)

train.insert(0, {'label': 'label', 'content': 'content'})
val.insert(0, {'label': 'label', 'content': 'content'})
test.insert(0, {'label': 'label', 'content': 'content'})

with open(export_name + r'train.csv', 'a', newline='', encoding='utf-8') as f:
xieru = csv.DictWriter(f, ['label', 'content'], delimiter=',')
xieru.writerows(train) # writerows方法是一下子写入多行内容
with open(export_name + r'dev.csv', 'a', newline='', encoding='utf-8') as f:
xieru = csv.DictWriter(f, ['label', 'content'], delimiter=',')
xieru.writerows(val) # writerows方法是一下子写入多行内容
with open(export_name + r'test.csv', 'a', newline='', encoding='utf-8') as f:
xieru = csv.DictWriter(f, ['label', 'content'], delimiter=',')
xieru.writerows(test) # writerows方法是一下子写入多行内容

divideDataSet('categories', 'text', root_path + r'@_数据集_已处理/Reuters-21578/data/', [])

  拆分出来3个csv文件。

[5] 处理数据集的文本数据

  在处理数据集的文本数据前,有必要了解一下使用预处理词向量的模型,是如何处理文本数据的。请参考博客:​​【英文文本分类实战】之三——数据清洗​​。

  由于​​bert​​​模型的强大,我们甚至可以不作任何处理,就能直接把文本作为输入放到​​bert​​​模型中,因为​​bert​​模型自带词典(很强大)。我倾向于不作处理,所以这里不再叙述。但其实如果处理的话,也不过是转化一下大小写、过滤特殊字符、过滤缩写,这些在​​【英文文本分类实战】之三——数据清洗​​都有详细介绍。

[6] 进行下一篇实战

  ​​【BERT-多标签文本分类实战】之五——BERT模型库的挑选与Transformers​​


标签:BERT,val,标签,label,content,之四,文本,数据,预处理
From: https://blog.51cto.com/u_15942590/6010816

相关文章

  • 【BERT-多标签文本分类实战】之六——数据加载与模型代码
    ·请参考本系列目录:​​【BERT-多标签文本分类实战】之一——实战项目总览​​·下载本实战项目资源:>=点击此处=<  前5篇文章中,介绍了实战项目的前置知识,下面正式介绍项......
  • 【多标签文本分类】MSML-BERT模型的层级多标签文本分类方法研究
    ·阅读摘要:  本文在BERT模型上,提出了利用多任务架构来解决层级多标签文本分类问题。·参考文献:  [1]MSML-BERT模型的层级多标签文本分类方法研究[0]摘要  在摘......
  • Jmeter学习:预处理器--用户参数预处理器/正则用户参数预处理器/采样超时处理器
    一、用户参数预处理器功能:通过该组件,我们可以为每一个线程的用户变量指定不同值。功能与CSV配置元件有点类似,在用户参数数据不多时,我们可以用该预处理器处理,更多时我们......
  • openmmlab 数据预处理讲解
    Resize1.单尺度输入:train_pipeline=[......dict(type='Resize',img_scale=(1333,800),keep_ratio=True),......dict......
  • Bert算法:语言模型-BERT详细介绍
    本文的目的是向NLP爱好者们详细解析一个著名的语言模型-BERT。全文将分4个部分由浅入深的依次讲解。1.Bert简介BERT是2018年10月由GoogleAI研究院提出的一种预训练模型。B......
  • VISUALBERT: A SIMPLE AND PERFORMANT BASELINE FOR VISION AND LANGUAGE论文阅读笔记
    摘要作者提出了VisualBERT这一框架,其由一系列的Transformerlayer组成,通过selfattention将文本与图像隐式地对齐,甚至对于语法关系也很敏感。方法VisualBERT方法的核心......
  • 项目中统计SQL执行缓慢的方案-数据预处理
    使用场景:由于表数据量巨大,导致一些统计相关的sql执行非常慢,使用户有非常不好的体验,并且sql和数据库已经没有优化空间了。(并且该统计信息数据实时性要求不高的前提下)解......
  • 38预处理器指令 知识点
    //什么是编译器//编译器是一种翻译程序//它用于将源语言程序翻译为目标语言程序//源语言程序:某种程序设计语言写成的,比如C#、C、C++、JAVA等语言写的程序//目标语言程......
  • 机器学习-数据预处理
    1.均值移除(标准化)由于一个样本的不同特征值差异较大,不利于使用现有机器学习算法进行样本处理。均值移除可以让样本矩阵中的每一列的平均值为0,标准差为1。确保......
  • C 语言编译预处理
    一、编译预处理概念1、编译预处理不是C语言本身的内容,是C编译系统提供的功能。在通常的编译之前,编译系统要预先对这些命令进行处理,之后才对C程序进行编译,生成目标代......