首页 > 编程语言 >实验二 逻辑回归与算法实验

实验二 逻辑回归与算法实验

时间:2022-11-04 11:37:22浏览次数:45  
标签:iris 逻辑 import 算法 实验 ax np theta data

【实验目的】

理解逻辑回归算法原理,掌握逻辑回归算法框架;
理解逻辑回归的sigmoid函数;
理解逻辑回归的损失函数;
针对特定应用场景及数据,能应用逻辑回归算法解决实际分类问题。

【实验内容】

1.根据给定的数据集,编写python代码完成逻辑回归算法程序,实现如下功能:

建立一个逻辑回归模型来预测一个学生是否会被大学录取。假设您是大学部门的管理员,您想根据申请人的两次考试成绩来确定他们的入学机会。您有来自以前申请人的历史数据,可以用作逻辑回归的训练集。对于每个培训示例,都有申请人的两次考试成绩和录取决定。您的任务是建立一个分类模型,根据这两门考试的分数估计申请人被录取的概率。
算法步骤与要求:

(1)读取数据;(2)绘制数据观察数据分布情况;(3)编写sigmoid函数代码;(4)编写逻辑回归代价函数代码;(5)编写梯度函数代码;(6)编写寻找最优化参数代码(可使用scipy.opt.fmin_tnc()函数);(7)编写模型评估(预测)代码,输出预测准确率;(8)寻找决策边界,画出决策边界直线图。

  1. 针对iris数据集,应用sklearn库的逻辑回归算法进行类别预测。

【要求】:

(1)使用seaborn库进行数据可视化;
(2)将iri数据集分为训练集和测试集(两者比例为8:2)进行三分类训练和预测;
(3)输出分类结果的混淆矩阵。

【实验报告要求】

(1)对照实验内容,撰写实验过程、算法及测试结果;
(2}代码规范化:命名规则、注释;
(3}实验报告中需要显示并说明涉及的数学原理公式;
(4)查阅文献,讨论逻辑回归算法的应用场景;

【步骤】

(1)读取数据

点击查看代码
import pandas as pd
import matplotlib.pyplot as plt
path = 'D:/ex2data1.txt'
data = pd.read_csv(path, header=None, names=['score1', 'score2', 'result'])
data

image

(2)绘制数据观察数据分布情况

点击查看代码
import matplotlib.pyplot as plt

positive=Data[Data["Admitted"]==1]
negative=Data[Data["Admitted"]==0]
fig,ax=plt.subplots(figsize=(12,8))
ax.scatter(positive['Exam1'],positive['Exam2'],s=30,c='b',marker='o',label='Admitted')
ax.scatter(negative['Exam1'],negative['Exam2'],s=30,c='r',marker='x',label='Not Admitted')
ax.legend()
ax.set_xlabel('Exam1 Score')
ax.set_ylabel('Exam2 Score')

image

(3)sigmoid函数

点击查看代码
import numpy as np
def sigmoid(z):
    return 1/(1+np.exp(-z))
nums=np.arange(-10,10,step=1)
fig,ax=plt.subplots(figsize=(12,8))
ax.plot(nums,sigmoid(nums),"r")

image

(4)逻辑回归代价函数

点击查看代码
def model(x,theta):
    return sigmoid(np.dot(x,theta.T))

def cost(theta,x,y):
    theta = np.matrix(theta) 
    L1=np.multiply(-y,np.log(model(x,theta)))
    L2=np.multiply(1-y,np.log(1-model(x,theta)))
    return np.sum(L1-L2)/(len(x))

Data.insert(0, 'Ones', 1)
cols=Data.shape[1]
x=np.array(Data.iloc[:,0:cols-1])
y=np.array(Data.iloc[:,cols-1:cols])
theta=np.zeros(x.shape[1])
print(cost(theta,x,y))

image

(5)梯度函数

点击查看代码
def gradient(theta,x,y):
    theta = np.matrix(theta) #要先把theta转化为矩阵
    grad=np.dot(((model(x,theta)-y).T),x)/len(x)
    return np.array(grad).flatten()#因为下面寻找最优化参数的函数(opt.fmin_tnc())要求传入的gradient函返回值需要是一维数组,
                                   #因此需要利用flatten()将grad进行转换以下 
gradient(theta,x,y)

image

(6)寻找最优化参数

点击查看代码
import scipy.optimize as opt
result = opt.fmin_tnc(func=cost, x0=theta, fprime=gradient, args=(X, y))
result

image

(7)模型评估(预测)输出预测准确率

点击查看代码
def predict(theta,x):
    theta=np.matrix(theta)
    temp=sigmoid(x*theta.T)
    return [1 if x >= 0.5 else 0 for x in temp]
theta=result[0]
predictValues=predict(theta,x)
hypothesis=[1 if a==b else 0 for (a,b)in zip(predictValues,y)]
accuracy=hypothesis.count(1)/len(hypothesis)
print ('accuracy = {0}%'.format(accuracy*100))

image

(8)寻找决策边界,画出决策边界直线图

点击查看代码
import numpy as np

def find_x2(x1,theta):
    return [(-theta[0]-theta[1]*x_1)/theta[2] for x_1 in x1]
x1 = np.linspace(30, 100, 1000)
x2=find_x2(x1,theta)
admittedData=data[data['result'].isin([1])]
noAdmittedData=data[data['result'].isin([0])]
fig,ax=plt.subplots(figsize=(12,8))
ax.scatter(admittedData['score1'],admittedData['score2'],marker='+',label='addmitted')
ax.scatter(noAdmittedData['score2'],noAdmittedData['score1'],marker='o',label="not addmitted")
ax.plot(x1,x2,color='r',label="decision boundary")
ax.legend(loc=1)
ax.set_xlabel('Exam1 score')
ax.set_ylabel('Exam2 score')
ax.set_title("Training data with decision boundary")
plt.show()

image

  1. 针对iris数据集,应用sklearn库的逻辑回归算法进行类别预测。
点击查看代码
import numpy as np 
import pandas as pd
import matplotlib.pyplot as plt
import seaborn as sns
from sklearn.datasets import load_iris
data = load_iris() # 得到数据特征
iris_target = data.target # 得到数据对应的标签
iris_features = pd.DataFrame(data=data.data, columns=data.feature_names) # 利用Pandas转化为DataFrame格式
# 合并标签和特征信息
iris_all = iris_features.copy() ## 进行浅拷贝,防止对于原始数据的修改
iris_all['target'] = iris_target
# 特征与标签组合的散点可视化
# 在2D情况下不同的特征组合对于不同类别的花的散点分布,以及大概的区分能力。
sns.pairplot(data=iris_all,diag_kind='hist', hue= 'target')
plt.savefig("iris.png")
plt.show()

image

(2)将iri数据集分为训练集和测试集(两者比例为8:2)进行三分类训练和预测

点击查看代码
 from sklearn.model_selection import train_test_split
 X_train,X_test,y_train,y_test = train_test_split(iris_features,iris_target,test_size=0.2,random_state=2020)
 from sklearn.linear_model import LogisticRegression
 clf=LogisticRegression(random_state=0,solver='lbfgs')
 # 在训练集上训练逻辑回归模型
 clf.fit(X_train,y_train)
 print('the weight of Logistic Regression:\n',clf.coef_)
 print('the intercept(w0) of Logistic Regression:\n',clf.intercept_)
 train_predict=clf.predict(X_train)
 test_predict=clf.predict(X_test)

image

(3)输出分类结果的混淆矩阵

点击查看代码
from sklearn import metrics
#利用accuracy(准确度)【预测正确的样本数目占总预测样本数目的比例】评估模型效果
print('The accuracy of the Logistic Regression is:',metrics.accuracy_score(y_train,train_predict))
print('The accuracy of the Logistic Regression is:',metrics.accuracy_score(y_test,test_predict))
#查看混淆矩阵(预测值和真实值的各类情况统计矩阵)
confusion_matrix_result=metrics.confusion_matrix(y_test,test_predict)
print('The confusion matrix result:\n',confusion_matrix_result)
# 利用热力图对于结果进行可视化,画混淆矩阵
plt.figure(figsize=(8,6))
sns.heatmap(confusion_matrix_result,annot=True,cmap='Reds')
plt.xlabel('Predictedlabels')
plt.ylabel('Truelabels')
plt.show()

image

3.数学公式
(1)sigmoid 函数:
image

(2)梯度下降:
梯度下降是迭代法的一种,可以用于求解最小二乘问题(线性和非线性都可以)。在求解机器学习算法的模型参数,即无约束优化问题时,梯度下降(Gradient Descent)是最常采用的方法之一,另一种常用的方法是最小二乘法。在求解损失函数的最小值时,可以通过梯度下降法来一步步的迭代求解,得到最小化的损失函数和模型参数值。反过来,如果我们需要求解损失函数的最大值,这时就需要用梯度上升法来迭代了。在机器学习中,基于基本的梯度下降法发展了两种梯度下降方法,分别为随机梯度下降法和批量梯度下降法。

(3)代价函数:
image

标签:iris,逻辑,import,算法,实验,ax,np,theta,data
From: https://www.cnblogs.com/duyidan/p/16844848.html

相关文章

  • 贪心算法简单实践 -- 分糖果、钱币找零、最多区间覆盖、哈夫曼编解码
    1.贪心算法概览贪心算法是一种算法思想。希望能够满足限制的情况下将期望值最大化。比如:Huffman编码,Dijkstra单源最短路径问题,Kruskal最小生成树等问题都希望满足限制的情......
  • 基于GRNN广义回归神经网络的飞机引擎剩余使用周期预测算法的研究
    目录一、理论基础1.1数据分析1.2特征提取1.3GRNN二、核心程序三、仿真测试结果作者ID:fpga和matlabCSDN主页:https://blog.csdn.net/ccsss22?type=blog擅长技术:1.无......
  • 基于gamebased算法的动态频谱访问matlab仿真
    目录一、理论基础二、核心程序三、测试结果一、理论基础随着越来越多的新型无线应用,对频谱资源的需求越来越大。在这种情况下,这是举世公认的认知无线电的出现已经成为......
  • 分红包算法
    自己的想法红包生成算法:1,利用随机函数,产生最大,最小红包之间的数。(这样的话,数据之间的落差太大,没有意思)2,使红包能够近似正太分布就符合自然规律些。怎样构造正太分布效果......
  • 实验二:逻辑回归算法实验
    学号:201613305姓名:冯莹【实验目的】理解逻辑回归算法原理,掌握逻辑回归算法框架;理解逻辑回归的sigmoid函数;理解逻辑回归的损失函数;针对特定应用场景及数据,能应用逻辑回归......
  • 算法题--重建二叉树
    6要求时间限制:1秒空间限制:32768K题目描述输入某二叉树的前序遍历和中序遍历的结果,请重建出该二叉树。假设输入的前序遍历和中序遍历的结果中都不含重复的数字。例如输......
  • 数据结构(一):(顺序表)设计算法删除所有数字字符
    好家伙,写作业 什么是顺序表:顺序表是在计算机内存中以数组的形式保存的线性表,线性表的顺序存储是指用一组地址连续的存储单元依次存储线性表中的各个元素、使得线性......
  • 实验4 类与数组、指针
    1#pragmaonce2#include<iostream>3usingnamespacestd;4classvectorInt{5public:6vectorInt(intn):size(n){7cout<<"constr......
  • 《会计学》的会计分录使用逻辑(2020年12月写)
    《会计学》的会计分录使用逻辑前言参考《​​会计分录的记忆​​​》、《​​会计分录大全​​》以及我之前写的《​​《会计学》的简单了解​​》、《​​《会计学》期中总......
  • KMP算法
    见csdn博主v_JULY_v的详解如下:https://blog.csdn.net/v_JULY_v/article/details/7041827?ops_request_misc=%257B%2522request%255Fid%2522%253A%25221667467393168001806......