数据挖掘与机器学习-第五章 回归分析


第五章 回归分析

回归预测

image-20220424224555655

回归分析

image-20220424224738273

回归分析案例

image-20220424224844325

image-20220424224913177

image-20220424225050000

线性回归

预备知识

image-20220424225337145

一元线性回归

image-20220424225547631

image-20220424225719095

image-20220424225923412

一元线性回归举例

image-20220424230101753

两种拟合方法

最小二乘法

image-20220424230229501

image-20220424230548674

image-20220424231526375

image-20220424231602615

矩阵法

image-20220424230924197

一元线性回归实现

image-20220424231700142

多元线性回归

image-20220425094610688

image-20220425094712702

多元线性回归实现

image-20220425094843356

线性回归的优缺点

image-20220425095223132

多项式回归

简介

image-20220425094457073

image-20220425100244538

image-20220425100507719

image-20220425100557590

image-20220425100634277

image-20220425101045788

一元高阶多项式回归模型

image-20220425095525139

image-20220425095624334

image-20220425100018772

多元高阶多项式回归

image-20220425095758239

线性回归问题

image-20220425101346403

image-20220425101519320

image-20220425101627689

image-20220425101712142

Ridge回归(岭回归)和Lasso回归

参考链接

image-20220425102142547

image-20220425102216445

image-20220425102228012

image-20220425102240198

image-20220425102300640

image-20220425102310632

image-20220425102322151

逻辑回归

image-20220425103548710

image-20220425103617138

image-20220425103628538

image-20220425103845049

image-20220425104214155

image-20220425104231389

image-20220425104248335

image-20220425104526768

image-20220425104552244

image-20220425105101730

image-20220425105148410

image-20220425105714235

image-20220425105759609

image-20220425105918963

逻辑回归的优点

image-20220425105954993

逻辑回归的缺点

image-20220425110050073

决策树(ID3+C4.5+CART)

支持向量机(SVM)

实验5 回归算法

题目一 Boston房价(线性回归和多项式回归)

1
2
3
4
5
6
7
8

本实验中我们将对波士顿房价的数据集进行回归算法训练:在机器学习章节中我们已经创建过最简单的回归模型,我们在此回顾一下:
LinearRegression 会调用 fit 方法来拟合数组 X, y,并且将线性模型的系数存储在其成员变量 coef_ 中:
from sklearn import linear_model
reg = linear_model.LinearRegression()
print(reg.fit ([[0, 0], [1, 1], [2, 2]], [0, 1, 2]))
print(reg.coef_)
print(reg.predict([[1, 2]]))
1
2
3
4
5
6
7
8
题目一:使用线性和多项式回归算法进行房价预测

STEP1:加载波士顿房价数据集,并且将数据集分割为训练集和测试集。


STEP2:创建线性回归模型和多项式回归模型并进行训练,创建多项式回归模型并进行训练,在这里我们已经对线性回归模型比较熟悉了,但是多项式回归模型如何创建?在此我们可以将原始数据转换其多项式特征值后再使用线性回归训练构成多项式回归模型。提示:使用PolynomialFeatures方法将数据进行转换

STEP3:使用模型进行预测并计算其mse。

image-20220426184314952

image-20220426190103888

image-20220426190825293

image-20220426190812968

1
boston房价数据集:data一共有506组样本,每个样本14个属性;target一共有506

image-20220426193838158

image-20220426193855354

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
###STEP 1###
import numpy as np
from sklearn import datasets
from sklearn.model_selection import train_test_split
from sklearn.linear_model import LinearRegression
from sklearn.preprocessing import PolynomialFeatures
data, target = datasets.load_boston(return_X_y=True)
x_train,x_test,y_train,y_test=train_test_split(data,target,random_state=1)

###STEP 2###
linear_model = LinearRegression()
linear_model.fit(x_train,y_train)

model=PolynomialFeatures(degree=2)
x_transformed=model.fit_transform(x_train)
poly_linear_model = LinearRegression()
poly_linear_model.fit(x_transformed,y_train)

###STEP 3###
y_predict=linear_model.predict(x_test)
x_test1=model.fit_transform(x_test)
y_hat=poly_linear_model.predict(x_test1)
linear_mse=np.average((y_predict-np.array(y_test))**2)
poly_mse = np.average((y_hat-np.array(y_test))**2)
print(linear_mse, poly_mse)

image-20220426193922803

参考链接

题目二 Boston房价(Ridge回归算法)

1
2
3
4
5
6
7
8
9
10
11
12
13
题目二:使用Ridge回归算法进行房价预测
线性回归的主要问题是对异常值敏感,在真实世界的数据收集过程中,经常会遇到错误的度量结果,而线性回归使用的普通最小二乘法,其目标是使平方误差最小化,这时,由于异常值误差的绝对值很大,会引起问题,破坏模型。
Ridge 回归通过对系数的大小施加惩罚来解决普通最小二乘法的一些问题,请自行了解Ridge 回归算法,以及与线性算法的区别。
STEP1:加载数据集,并且将数据集分割为训练集和测试集。


STEP2:创建Ridge回归模型,请了解sklearn中Ridge模型的alpha参数,参考:http://sklearn.apachecn.org/cn/0.19.0/modules/generated/sklearn.linear_model.Ridge.html#sklearn.linear_model.Ridge。


STEP3:寻找Ridge最优参数alpha,创建参数优化器GridSearchCV,将参数model,param_grid传入,GridSearchCV是为了寻找出model的alpha最优参数,请了解sklearn中GridSearchCV的model,param_grid参数,参考:http://sklearn.apachecn.org/cn/0.19.0/modules/generated/sklearn.model_selection.GridSearchCV.html#sklearn.model_selection.GridSearchCV。


STEP4:使用最优参数的Ridge模型进行预测,计算其MSE,并从图像中观察预测值是

image-20220426193949270

image-20220426194005962

image-20220426194018670

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
### STEP 1 ###
import matplotlib.pyplot as plt
from sklearn.linear_model import Ridge
from sklearn.model_selection import GridSearchCV
data,target=datasets.load_boston(return_X_y=True)
x_train,x_test,y_train,y_test=train_test_split(data,target,random_state=1)

### STEP 2###
model = Ridge()
alpha_can=np.logspace(-3, 1, 10)

### STEP 3###
ridge_model=GridSearchCV(model, param_grid={'alpha':alpha_can})
ridge_model.fit(data,target)
print('证参数: \n', ridge_model.best_params_)

###STEP 4###
y_hat=ridge_model.predict(x_test)
mse=np.average((y_hat-np.array(y_test))**2)
rmse=np.sqrt(mse)
t=np.arange(len(x_test))
plt.plot(t,y_test,'r-',linewidth=2,label='Test')
plt.plot(t,y_hat,'g-',linewidth=2,label='Predict')
plt.legend(loc='upper right')
plt.grid()
plt.show()

image-20220426195436322


本文标题:数据挖掘与机器学习-第五章 回归分析

文章作者:TTYONG

发布时间:2022年04月24日 - 22:04

最后更新:2023年02月24日 - 03:02

原始链接:http://tianyong.fun/%E6%95%B0%E6%8D%AE%E6%8C%96%E6%8E%98%E6%8A%80%E6%9C%AF%E4%B8%8E%E5%BA%94%E7%94%A8-%E7%AC%AC%E4%BA%94%E7%AB%A0-%E5%9B%9E%E5%BD%92%E5%88%86%E6%9E%90.html

许可协议: 转载请保留原文链接及作者。

多少都是爱
0%