首页 > 编程语言 >Python 机器学习 决策树 文本特征的处理

Python 机器学习 决策树 文本特征的处理

时间:2024-02-28 21:22:53浏览次数:25  
标签:word Python text 模型 决策树 文本 vectorizer

Python机器学习中,决策树是一种常用的分类和回归模型。决策树可以处理数值型特征和类别型特征。对于文本特征,决策树通常使用词袋模型 (BOW) 或 TF-IDF 模型进行处理。在处理文本特征时,决策树(和机器学习算法通常)不能直接处理原始文本。文本必须首先转换成算法能理解的数值形式。

参考文档:Python 机器学习 决策树 文本特征的处理-CJavaPy

1、文本预处理

在使用决策树等算法时,对文本数据进行有效的预处理是非常重要的。文本数据通常需要转换成模型能够理解的格式,这个过程涉及到一系列的文本预处理步骤。

1) 文本清洗

文本数据往往包含很多噪声信息,如标点符号、特殊字符、错误的拼写等,这些都可能影响模型的性能。文本清洗步骤可以包括去除HTML标签,移除特殊字符和标点符号,纠正拼写错误,转换为小写(有助于确保模型不会把同一个词的不同大小写视为不同的词)。

import string
import nltk
from nltk.corpus import stopwords
from nltk.tokenize import word_tokenize
from nltk.stem import PorterStemmer, WordNetLemmatizer

# 下载nltk数据
nltk.download('punkt')
nltk.download('stopwords')
nltk.download('wordnet')
nltk.download('omw-1.4')

# 原始文本
text = "This is a Sample Text, showing off the stop words filtration and stemming!"

# 转换为小写
text_lower = text.lower()

# 去除标点符号
translator = str.maketrans('', '', string.punctuation)
text_no_punctuation = text_lower.translate(translator)

# 去除停用词
stop_words = set(stopwords.words('english'))
word_tokens = word_tokenize(text_no_punctuation)
filtered_text = [word for word in word_tokens if not word in stop_words]

# 词干提取
ps = PorterStemmer()
stemmed_words = [ps.stem(word) for word in filtered_text]

# 词形还原
lemmatizer = WordNetLemmatizer()
lemmatized_words = [lemmatizer.lemmatize(word) for word in stemmed_words]

# 组合处理后的文本
processed_text = ' '.join(lemmatized_words)

print("Original Text:", text)
print("Processed Text:", processed_text)

2)分词(Tokenization)

分词是将连续的文本分割成一个个单独的词语或标记的过程。文本数据通常需要被转换成模型可以理解的数值型数据。分词(Tokenization)是文本预处理中的一个重要环节,它涉及将文本分解成更小的部分(如单词、短语或其他符号),以便进一步处理和分析。

from sklearn.feature_extraction.text import CountVectorizer

# 示例文本
texts = ["Python is a powerful programming language.",
         "Machine learning with Python is fun and exciting."]

# 初始化CountVectorizer
vectorizer = CountVectorizer()

# 拟合数据并转换为数值型特征
X = vectorizer.fit_transform(texts)

# 查看分词结果
print(vectorizer.get_feature_names_out())

# 查看数值型特征
print(X.toarray())

2、特征提取

将原始文本转换为模型可以理解的格式,通常是数值型特征向量。最常用的方法是词袋模型(Bag of Words, BoW)和TF-IDF(Term Frequency-Inverse Document Frequency)。

1)词袋模型(Bag of Words, BoW)

词袋模型(Bag of Words, BoW)是一种简单而强大的文本特征提取方法,它将文本转换为固定长度的数值向量。BoW模型忽略了文本中词语的顺序和语法,只考虑词汇出现的频率。将文本转换为词频向量。在这种表示法中,每个文档表示为一个长向量,向量的每个元素对应词汇表中的一个词,并且每个元素的值是该词在文档中出现的次数。

from sklearn.feature_extraction.text import CountVectorizer

# 示例文本数据
corpus = [
    'Text of the first document.',
    'Text of the second second document.',
    'And the third one.',
    'Is this the first document?'
]

# 初始化CountVectorizer
vectorizer = CountVectorizer()

# 将文本数据转换为词频矩阵
X = vectorizer.fit_transform(corpus)

# 获取词汇表
print(vectorizer.get_feature_names_out())

# 查看文本数据的词频矩阵
print(X.toarray())

2)TF-IDF(Term Frequency-Inverse Document Frequency)

在自然语言处理(NLP)领域,处理文本数据是一个常见的任务。文本数据通常需要通过预处理和特征提取转换成模型可以理解的格式。TF-IDF(Term Frequency-Inverse Document Frequency,词频-逆文档频率)是一种常用的特征提取方法,用于将文本转换为数值向量,以便于使用机器学习算法。TF-IDF 是一种统计方法,用于评估一个词语对于一个文档集或一个语料库中的其中一份文档的重要程度。它的值反映了词语在文档中的重要性,这个重要性随着词语在文档中出现的次数线性增加,但同时会被词语在语料库中的出现频率所抵消。

from sklearn.feature_extraction.text import TfidfVectorizer

# 示例文档
documents = [
    'The sky is blue.',
    'The sun is bright today.',
    'The sun in the sky is bright.',
    'We can see the shining sun, the bright sun.'
]

# 初始化TF-IDF Vectorizer
vectorizer = TfidfVectorizer()

# 使用TF-IDF vectorizer拟合并转换文档
tfidf_matrix = vectorizer.fit_transform(documents)

# 查看结果
print(tfidf_matrix.toarray())

# 获取特征名
print(vectorizer.get_feature_names_out())

3、使用决策树模型

文本被转换为数值特征,则可以使用这些特征来训练决策树模型。决策树将使用这些特征来学习如何将文档分类或预测目标变量。

from sklearn.feature_extraction.text import TfidfVectorizer
from sklearn.tree import DecisionTreeClassifier

# 准备数据
texts = ["今天天气真好", "机器学习很有趣", "决策树是一种有用的模型", "今天天气很差", "我不喜欢今天的天气"]
labels = [1, 2, 2, 1, 1]  # 1代表关于天气的文本,2代表关于机器学习的文本

# 文本向量化
vectorizer = TfidfVectorizer()
X = vectorizer.fit_transform(texts)

# 训练决策树模型
clf = DecisionTreeClassifier()
clf.fit(X, labels)

# 进行预测
new_texts = ["决策树可以用于分类问题", "明天天气怎么样"]
new_X = vectorizer.transform(new_texts)
predictions = clf.predict(new_X)

# 打印预测结果
print(predictions)  # 具体结果依赖于模型训练

 参考文档:Python 机器学习 决策树 文本特征的处理-CJavaPy

标签:word,Python,text,模型,决策树,文本,vectorizer
From: https://www.cnblogs.com/tinyblog/p/18041884

相关文章

  • pythonUI自动化之POM底层框架
    1.pythonUI自动化之组成结构python+pytest+allure+POMpython:编程语言pytest:单元测试框架allure:测试报告POM:页面对象模型 2.pythonUI自动化之POM测试框架目录1.base文件夹:基类,用于配置元素操作,如获取元素、输入、点击、等待等函数2.pages_obje......
  • python环境安装与配置
    python是一种高级编译语言,这里所说的高级,是指python封装性较深,屏蔽很多底层细节。下载python是免费的,用户使用python进行发布和开发自己的程序,不需要支付任何付费用,也不用担心版权问题,即使作为商业用途,python也是免费的。python的扩展性体现在它的模块,python具有脚本语言中最丰富......
  • python | Pandas.unique()函数
    unique()是Pandas中的一个函数,用于获取Series或DataFrame中的唯一值,它返回一个包含Series或DataFrame中唯一值的数组,按照它们在原始数据中的出现顺序排列。对于足够长的序列,比numpy.unique快得多。包括NA值。data={'Name':['John','Tom','Alice','John'],'Ag......
  • Python | One-Hot Encoding (独热编码)
    独热编码(One-HotEncoding),又称一位有效编码,其方法是使用N位状态寄存器来对N个状态进行编码,每个状态都有它独立的寄存器位,并且在任意时候,其中只有一位有效。即,只有一位是1,其余都是零值。独热编码是利用0和1表示一些参数,使用N位状态寄存器来对N个状态进行编码。地区特征:["北京","上......
  • python工作目录
    #-*-coding:UTF-8-*-importosimportsysdefprint_directory_contents(path):foriteminos.listdir(path):item_path=os.path.join(path,item)ifos.path.isdir(item_path):print("目录:",item)else:......
  • python远程服务调用
    一GET请求设置headers,user-agent用来模拟浏览器。cookie是远程服务需要校验的认证信息:比如token。请求:requests.get(url,headers=headers,params=params,verify=False),params是get请求时的form表单里的参数,verify=False设置为false即可。得到响应结果response后,可以转化为j......
  • rust与python/c++语法区别
    if/matchpubfnanimal_habitat(animal:&str)->&'staticstr{letid=ifanimal=="crab"{//id等于(或拥有)了一个匿名函数的返回值1}elseifanimal=="gopher"{2}elseifanimal=="snake"......
  • python移除/删除非空文件夹/目录的最有效方法是什么?
    1.标准库参考:shutil.rmtree。根据设计,rmtree在包含只读文件的文件夹树上失败。如果要删除文件夹,不管它是否包含只读文件,请使用importshutilshutil.rmtree('/folder_name',ignore_errors=True)2.从os.walk()上的python文档中:#Deleteeverythingreachablefromthedirec......
  • Python如何递归删除空文件夹
    1.Python如何递归删除空文件夹,这个问题很常见。但大多数人的解决办法都是自己实现递归函数解决这个问题,其实根本不用那么麻烦。Python中的os.walk提供了一种从内到外的遍历目录树的方法(设置topdown=False),这样由内到外判断当前目录树下是否有文件和文件夹,如果都没有则意味着当前目......
  • python中5种线程锁
    线程安全线程安全是多线程或多进程编程中的一个概念,在拥有共享数据的多条线程并行执行的程序中,线程安全的代码会通过同步机制保证各个线程都可以正常且正确的执行,不会出现数据污染等意外情况。线程安全的问题最主要还是由线程切换导致的,比如一个房间(进程)中有10颗糖(资源),除此之外......