首页 > 其他分享 >机器学习(一)

机器学习(一)

时间:2024-06-19 16:31:58浏览次数:17  
标签:__ iris 机器 list transform 学习 print data

机器学习

1.机器学习概述

1.1 人工智能概述

1.1.1 机器学习与人工智能、深度学习的关系

机器学习是人工智能的一个实现途径,而深度学习是机器学习的一个方法发展而来。

1.1.2 人工智能的起点

外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传

1.1.3 机器学习、深度学习能做什么?

应用领域:网络搜索、识别人类语言、自动驾驶、计算机视觉、传统预测、图形识别、自然语言处理。

AGI为Artificial General Intelligence的首字母缩写,意为人工通用智能。它是一种可以执行复杂任务的人工智能,能够完全模仿人类智能的行为。

1.2 什么是机器学习?

1.2.1 定义

机器学习是从数据中自动分析获取模型,并利用模型对未知数据进行预测

在这里插入图片描述

1.2.2 数据集的构成

结构: 特征值 + 目标值

外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传

注:

对于每一行数据可以称为样本。

有些数据集可以没有目标值。(需要采用聚类算法这些,进行分类。)

1.3 机器学习算法

在这里插入图片描述

1.4 机器学习开发流程

  • 获取数据
  • 数据处理(缺失值、坏点等等)
  • 特征工程(让数据变得更容易被机器学习算法使用的数据)
  • 机器学习算法训练(之后得到模型)
  • 模型评估
  • 应用

在这里插入图片描述

2.特征工程

2.1 数据集

2.1.1 可用数据集

外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传

Kaggle网址:Find Open Datasets and Machine Learning Projects | Kaggle

UCI网址:UCI 机器学习存储库

scikit-learn网址:scikit-learn: machine learning in Python — scikit-learn 1.5.0 documentation

2.1.2 Scikit-learn工具介绍

  • python语言的机器学习的工具
  • Scikit-learn包含许多机器学习算法的实现

2.1.3 安装

pip install Scikit-learn

# 如果有多个python版本的话,需要指定,以3.12为例
pip3.12 install Scikit-learn

完了之后,可以查看自己是否安装成功。

pip list

2.1.2 Sklearn数据集

# * 表示的是数据集的名字

# 获取小规模数据集,数据包含在datasets里
sklearn.datasets.load_*()

# 获取大型数据集,需要从网络下载,默认是 ~/scikit_learn_data/
# datahome : 标识数据集下载的目录
# subset:'train' 或 'test' 或 'all' 可选,选择要加载的数据集
sklearn.datasets.fetch_*(datahome = None,subset = "train")

# 两种方法的返回的数据值
# load和fetch返回的数据类型datasets.base.Bunch(字典格式),这个是继承自字典
	# data: 特征值数据数组,是[n_samples * n_features]的二维numpy*ndarray数组
    # target: 标签数组,是n_samples 的一维numpy * ndarray数组
    # DESCR: 数据描述
    # feature_names: 特征名
    # target_names: 标签名

示例:

from sklearn.datasets import load_iris


def datasets_demo():
    """
    sklearn数据集使用
    :return:
    """
    # 获取数据集
    iris = load_iris()
    print("鸢尾花数据集:\n", iris)
    print("鸢尾花数据集描述:\n", iris["DESCR"])
    print("鸢尾花数据集特征值的名字:\n", iris.feature_names)
    print("鸢尾花数据集特征值的形状:\n", iris.data, iris.data.shape)
    return None


if __name__ == '__main__':
    datasets_demo()

2.1.3 数据集的划分

机器学习数据集会划分为两个部分:

  • 训练数据:用于训练 , 构建模型
  • 测试数据:在模型检验中使用,评估模型是否有效

数据集划分API

  • sklearn.model_selection.train_test_split(arrays,*options)
    • x 数据集的特征值
    • y 数据集的标签值
    • test_size 测试集的大小,一般为float
    • random_state 随机数种子,不同的种子会造成不同的随机采样结果。
    • return 训练集特征值,测试集特征值、训练集目标值、测试集目标值
from sklearn.datasets import load_iris
from sklearn.model_selection import train_test_split


def datasets_demo():
    """
    sklearn数据集使用
    :return:
    """
    # 获取数据集
    iris = load_iris()

    # 数据集划分
    x_train, x_test, y_train, y_test = train_test_split(iris.data, iris.target, test_size=0.2)
    print("训练集特征值:\n", x_train, x_train.shape)
    print("训练集目标值:\n", y_train, y_train.shape)
    print("测试集特征值:\n", x_test, x_test.shape)
    print("测试集目标值:\n", y_test, y_test.shape)
    return None


if __name__ == '__main__':
    datasets_demo()

2.2 特征工程介绍

2.2.1 为什么要做特征工程

数据和特征决定了机器学习的上限,而模型和算法只是逼近这个上限。

2.2.2 什么是特征工程

特征工程是使用专业背景知识和技巧处理数据,使得特征能在机器学习算法上发挥更好的作用的过程。

  • 意义:会直接影响机器学习的效果。

在特征工程里面,我们使用的是sklearn,而不是pandas(数据清洗、数据处理)。

2.3 特征提取

2.3.1 概念

将任意数据(如文本或图像)转换为可用于机器学习的数字特征

  • 字典特征提取(特征离散化)
  • 文本特征提取
  • 图像特征提取

2.3.2 特征提取API

sklearn.feature_extraction

2.3.3 字典特征提取

类别 -> one-hot编码

向量用一维数组进行表示

sklearn.feature_extraction.DictVetorizer(sparse = True,...)
# sparse(稀疏) = True: 会把该矩阵采用三元组进行存储,只存储不为零的元素,按照(行,列,值)存储,目的是为了节约空间
# sparse(稀疏) = False: 按照正常矩阵存储

Dictverorizer.fit_transform(x) x:字典或包含字典的迭代器返回值:返回sparse矩阵

应用场景:

当数据集中类别特征比较多

  • 如果不是字典,则将数据集特征 --> 字典类型,否则不用
  • 利用DictVetorizer进行转换

示例:

from sklearn.feature_extraction import DictVectorizer


def dict_demo():
    city_dict = [{'city': '北京', 'temperature': 100}, {'city': '上海', 'temperature': 60},
                 {'city': '深圳', 'temperature': 30}, ]
    # 1. 实例化对象
    transformer = DictVectorizer(sparse=False)
    # 2. 调用fit_transform方法
    city_dict = transformer.fit_transform(city_dict)
    # 3. 打印矩阵特征值名称
    print("city_dict_feature:\n", transformer.get_feature_names_out())
    # 4. 打印矩阵内容
    print("city_dict:\n", city_dict)
    return None


if __name__ == '__main__':
    dict_demo()

2.3.4 文本特征提取

作用:对文本数据进行特征值化

sklearn.feature_extraction.text.CountVectorizer(stop_words=[])	# stop_words 里面可以写不需要分类的词 返回值为词频矩阵

CountVectorizer.fit_transform(X) # X : 文本或包含文本字符串的可迭代对象  返回值:返回sparse矩阵

CountVectorizer.inverse_transform(X) # X : array数组或sparse矩阵   返回值:转换之前的数据格式

CountVectorizer.get_feature_names()  # 返回值:单词列表

示例(英文句子)

from sklearn.feature_extraction.text import CountVectorizer


def count_demo():
    dict_list = ["life is short,I like python", "life is too long,I dislike python"]
    # 1. 实例化对象
    transfer = CountVectorizer()
    # 2. 调用fit_transform方法
    dict_list = transfer.fit_transform(dict_list)
    # 3. 打印特征名称
    print("feature_names:\n", transfer.get_feature_names_out())
    # 4. 打印结果
    print("dict_list:\n", dict_list)
    # 5. 换行为数组
    print("dict_list:\n", dict_list.toarray())
    # 6. 把特征名按照顺序排序
    print("vocabulary:\n", transfer.vocabulary_)
    # 7. 调用inverse_transform方法
    print("inverse_transform:\n", transfer.inverse_transform(dict_list))
    return


if __name__ == '__main__':
    count_demo()

示例(中文句子)

from sklearn.feature_extraction.text import CountVectorizer


def count_demo():
    dict_list = [
        "生活不能等待别人来安排,要自己去争取和奋斗;",
        "而不论其结果是喜是悲,但可以慰藉的是,你总不枉在这世界上活了一场。",
        "有了这样的认识,你就会珍重生活,而不会玩世不恭;同时,也会给人自身注入一种强大的内在力量。"]
    # 1. 实例化对象
    transfer = CountVectorizer()
    # 2. 调用fit_transform方法
    dict_list = transfer.fit_transform(dict_list)
    # 3. 打印特征名称
    print("feature_names:\n", transfer.get_feature_names_out())
    # 4. 打印结果
    print("dict_list:\n", dict_list)
    # 5. 换行为数组
    print("dict_list:\n", dict_list.toarray())
    # 6. 把特征名按照顺序排序
    print("vocabulary:\n", transfer.vocabulary_)
    # 7. 调用inverse_transform方法
    print("inverse_transform:\n", transfer.inverse_transform(dict_list))
    return


if __name__ == '__main__':
    count_demo()

由于中文没有空格,采用上面的方法处理不好,我们使用空格进行分割,如果句子多的话,太麻烦,所以我们使用jieba库来处理。

# 利用pip下载
pip install jieba

# 查看
pip list

示例:中文(使用jieba)

from sklearn.feature_extraction.text import CountVectorizer
import jieba


def cut_word(text):
    """
    中文分词,text为字符串
    :param text:
    :return:
    """
    return " ".join(list(jieba.cut(text)))


def count_chinese_demo():
    """
    中文文本特征抽取,自动分词
    :return:
    """
    data = [
        "生活不能等待别人来安排,要自己去争取和奋斗;",
        "而不论其结果是喜是悲,但可以慰藉的是,你总不枉在这世界上活了一场。",
        "有了这样的认识,你就会珍重生活,而不会玩世不恭;同时,也会给人自身注入一种强大的内在力量。"]

    data_new = []
    # 1. 遍历data列表
    for sent in data:
        # 2. 中文分词
        data_new.append(cut_word(sent))
    print(data_new)

    # 3. 实例化对象
    transfer = CountVectorizer()
    # 4. 提取特征
    data_list = transfer.fit_transform(data_new)
    # 5. 打印特征名称
    print("特征名称\n", transfer.get_feature_names_out())
    # 6. 打印结果
    print("data_list\n", data_list)
    # 7. 转换为数组
    print(data_list.toarray())
    # 8. 把特征名称按照顺序排序
    print("特征名称排序\n", transfer.vocabulary_)
    # 9. 调用inverse_transform方法
    print("还原\n", transfer.inverse_transform(data_list))
    return None


if __name__ == '__main__':
    count_chinese_demo()

前面的,我们使用是根据单词出现的次数进行分类,但是有的单词在每篇文章中都出现很高,没有区分度。

我们希望找到在一个类别的文章,出现的次数很多,但是在其他类别的文章中出现很少。

2.3.5 TF-IDF文本特征提取

  • TF-IDF的主要思想是:如果某个词或短语在一篇文章中出现的概率高,并且在其他文章中很少出现,则认为此词或者短语具有很好的类别区分能力,适合来分类。
  • TF-IDF作用:用以评估一字词对于一个文件集或一个语料库中的其中一份文件的重要程度。

利用下面公式进行计算

# TF(词频):指的是某一个给定的词语在该文件中出现的频率
# IDF(逆向文档频率):是一个词语普遍重要性的度量。某一特定词语的IDF,可以由总文件数目除以包含该词语的文件的数目,把其取以10为底的对数就可以得到
TF-IDF = TF(词频) * IDF(逆向文档频率)
API
sklearn.feature_extraction.text.TfidfVectorizer(stop_words=None)	# 返回词的权重矩阵

TfidfVectorizer.fit_transform(X) # X : 文本或包含文本字符串的可迭代对象  返回值:返回sparse矩阵

TfidfVectorizer.inverse_transform(X) # X : array数组或sparse矩阵   返回值:转换之前的数据格式

TfidfVectorizer.get_feature_names()  # 返回值:单词列表

示例:

from sklearn.feature_extraction.text import TfidfVectorizer
import jieba


def cut_word(text):
    """
    中文分词,text为字符串
    :param text:
    :return:
    """
    return " ".join(list(jieba.cut(text)))


def count_chinese_demo():
    """
    中文文本特征抽取,自动分词
    :return:
    """
    data = [
        "生活不能等待别人来安排,要自己去争取和奋斗;",
        "而不论其结果是喜是悲,但可以慰藉的是,你总不枉在这 世界上活了一场。",
        "有了这样的认识,你就会珍重生活,而不会玩世不恭;同时,也会给人自身注入一种强大的内在力量。"]

    data_new = []
    # 1. 遍历data列表
    for sent in data:
        # 2. 中文分词
        data_new.append(cut_word(sent))
    print(data_new)

    # 3. 实例化对象
    transfer = TfidfVectorizer()
    # 4. 提取特征
    data_list = transfer.fit_transform(data_new)
    # 5. 打印特征名称
    print("特征名称\n", transfer.get_feature_names_out())
    # 6. 打印结果
    print("data_list\n", data_list)
    # 7. 转换为数组
    print(data_list.toarray())
    # 8. 把特征名称按照顺序排序
    print("特征名称排序\n", transfer.vocabulary_)
    # 9. 调用inverse_transform方法
    print("还原\n", transfer.inverse_transform(data_list))
    return None


if __name__ == '__main__':
    count_chinese_demo()

2.4 特征预处理

通过一些转换函数将特征数据转换成更合适算法模型的特征数据过程。

数值型数据的无量纲化:

  • 归一化
  • 标准化

进行归一化/标准化是因为:

  • 特征的单位或者大小相差较大,或者某特征的方差相比其他的特征要大出几个数量级,容易影响(支配)目标结果,使得一些算法无法学习到其他的特征。

2.4.1 特征预处理API

sklearn.preprocessing

2.4.2 归一化

  1. 定义:通过对原始数据进行变换把数据映射到(默认[0,1])之间。

  2. 公式

    外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传

2.4.3 API

sklearn.preprocessing.MinMaxScaler(feature_range=(0,1))
	MinMaxScalar.fit_transform(X)
    	X: numpy arrayg格式的数据[n_samples,n_features]	# n_samples(样本数即一行的数据) * n_features(有几个特征)
    返回值:转换后的形状相同的array

示例:

from sklearn.datasets import load_iris
from sklearn.preprocessing import MinMaxScaler


def minmax_demo():
    """
    归一化
    :return:
    """
    # 1. 获取数据
    iris = load_iris()
    # 2. 实例化转换器类
    minmax = MinMaxScaler()
    # 3. 调用fit_transform()方法
    iris.data = minmax.fit_transform(iris.data)
    # 4. 打印
    print(iris.data)
    return None


if __name__ == '__main__':
    minmax_demo()

使用归一化的时候,里面需要借助min/max,如果这两个值是异常值,则最后计算的结果会受到影响。所以这种方法鲁棒性比较差,只适合于传统精确小数据的场景。

2.4.4 标准化

  1. 定义:通过对原始数据进行变换把数据变换到均值为0,标准差为1范围内。

  2. 公式:

    外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传

2.4.5 API

sklearn.preprocessing.StandardScaler()
	处理之后,对每列来说,所有数据聚集再均值为0、标准差为1附近
    StandardScaler.fit_transform(X)
    	X : numpy array格式的数据[n_samples,n_features]
    返回值:转换后形状相同的array

示例:

from sklearn.datasets import load_iris
from sklearn.preprocessing import StandardScaler


def standard_demo():
    """
    标准化
    :return:
    """
    # 1. 获取数据
    iris = load_iris()
    # 2. 实例化转换器类
    minmax = StandardScaler()
    # 3. 调用fit_transform()方法
    iris.data = minmax.fit_transform(iris.data)
    # 4. 打印
    print(iris.data)
    return None


if __name__ == '__main__':
    standard_demo()

在已有样本足够多的情况下比较稳定,适合去处理现代嘈杂大数据场景。

2.4.6 总结

  • 对于归一化来说:如果出现异常点,影响了最大值和最小值,那么结果显示会发生变化
  • 对于标准化来说:如果出现异常点,由于具有一定数据量,少量的异常点对于平均值的影响并不大,从而标准差改变较小

2.5特征降维

2.5.1 标量、向量、矩阵、张量的关系

在这里插入图片描述

2.5.2 降维概念

指的某些限定条件下,降低随机变量(特征)个数,得到一组“不相关”主变量的过程。(也就是线代里面的极大无关组)

外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传

补充:我们在进行训练的时候,使用的是特征进行学习。如果特征本身存在问题或特征之间相关性较强,对于算法学习预测会影响比较大。

2.5.3 降维的两种方式

  • 特征选择
  • 主成分分析

标签:__,iris,机器,list,transform,学习,print,data
From: https://blog.csdn.net/m0_49635911/article/details/139730817

相关文章

  • nodejs学习08——会话控制 session cookie token
    会话控制一、介绍所谓会话控制就是对会话进行控制HTTP是一种无状态的协议,它没有办法区分多次的请求是否来自于同一个客户端,无法区分用户而产品中又大量存在的这样的需求,所以我们需要通过会话控制来解决该问题常见的会话控制技术有三种:cookiesessiontoken二、cooki......
  • 莫比乌斯反演学习笔记
    \[\]前段时间学习了莫比乌斯反演,现在补一篇学习笔记吧。Step1:莫比乌斯函数首先我们来定义一下莫比乌斯函数\(\mu\),它的取值如下:\[\mu(n)=\left\{ \begin{array}{ll} 1\qquad\quadn=1\\ (-1)^k\quadn=p_1p_2\cdotsp_k\\ 0\qquad\quadotherwise \end{array}......
  • 筛法学习笔记
    0.更新upd2023.5.21更新了关于powerfulnumber数量的证明upd2023.5.25更新了关于杜教筛的时间复杂度证明正文1.筛质数筛法其实就是判断质数的一个算法,但是是解决\([1,n]\)这一段区间的算法筛质数是最简单的一个用法1.1暴力最简单的方式就是对于每一个数去判断......
  • 狄利克雷卷积学习笔记
    0.更新upd2023.5.18更新了狄利克雷卷积新的一个性质,更新了常用结论的证明1.正文这玩意儿是这么说的:定义一个运算:$*$为狄利克雷卷积。他是干啥的呢?把两个数论函数进行一个运算。\[h(n)=(f*g)(n)=\sum_{d|n}f(d)g(\frac{n}{d})\]当\(f,g\)都是积性函数时,他们的狄利......
  • SpringData初步学习-连接MySQL数据库
    1.添加mysql驱动和spring-data-jpa依赖<dependencies><!--SpringDataJPA--><dependency><groupId>org.springframework.boot</groupId><artifactId>spring-boot-starter-data-jpa</artifactId><......
  • 【学习笔记】MySQL(Ⅲ)
    MySQL(Ⅲ)11、进阶篇——视图      11.1、概述      11.2、基本语法      11.3、检查选项CASCADED      11.4、检查选项LOCAL      11.5、视图的更新原则12、进阶篇——存储过程      12.1、概述      1......
  • 结构动力学教材-学习笔记
    参考教材:振动力学,(刘延柱,陈文良,陈立群),出版日期1998.10结构动力学,克拉夫,第二版阻尼性能是我硕士课题的主要工作,着眼点在:如何描述符合材料结构的阻尼?什么因素影响了结构的阻尼性能大小?怎么表示阻尼性能的大小?如何计算阻尼性能?阻尼模型梁超锋.混凝土材料与......
  • 人工智能(AI)与机器学习(ML):塑造未来的技术引擎
    目录前言一、人工智能(AI)概述二、机器学习(ML)的作用:深入解析与应用前景1、机器学习的作用机制2、机器学习在各个领域的应用3、机器学习的挑战与前景三、AI与ML的融合与应用:深度解析与前景展望1、AI与ML的融合机制2、AI与ML在自动驾驶领域的应用3、AI与ML在医疗领域的应......
  • k8s学习--OpenKruise详细解释以及原地升级及全链路灰度发布方案
    文章目录OpenKruise简介OpenKruise来源OpenKruise是什么?核心组件有什么?有什么特性和优势?适用于什么场景?什么是OpenKruise的原地升级原地升级的关键特性使用原地升级的组件原地升级的工作原理应用环境一、OpenKruise部署1.安装helm客户端工具2.通过helm安装二、Open......
  • 详解联邦学习中的异构模型集成与协同训练技术
    本文分享自华为云社区《联邦学习中的异构模型集成与协同训练技术详解》,作者:Y-StarryDreamer。引言随着数据隐私和安全问题的日益突出,传统的集中式机器学习方法面临着巨大的挑战。联邦学习(FederatedLearning)作为一种新兴的分布式机器学习方法,通过将模型训练过程分布在多个参与者......