0
点赞
收藏
分享

微信扫一扫

Django REST Framework(四)DRF APIVIEW

玉字璧 2024-07-24 阅读 28

线性回归是一种基本的统计学习方法,用于建立特征与连续目标变量之间的线性关系模型。其核心思想是通过最小化预测值与实际观测值之间的误差来拟合数据。这种模型假设自变量(特征)与因变量(目标)之间的关系是线性的,即可以用直线或超平面来描述。在实际应用中,线性回归广泛用于预测和建模,例如预测房价、分析市场趋势、评估影响因素等。优点包括简单易理解、计算效率高,但也存在对数据分布和特征线性关系的假设限制,需要在实践中谨慎应用和验证。

实现线性回归涉及多个步骤,从数据预处理到模型评估,每个步骤都至关重要。以下是详细的步骤解释:

1. 数据准备和预处理

首先,准备数据并进行必要的预处理:

  • 数据加载:从数据源(文件、数据库等)加载数据集。

  • 特征选择:根据问题定义选择适当的特征,这些特征应该与目标变量有相关性。

  • 数据清洗:处理缺失值、异常值和重复数据,确保数据质量。

  • 数据标准化:对特征进行标准化或归一化处理,以确保特征具有相似的尺度,例如使用 StandardScalerMinMaxScaler

2. 定义模型

选择适当的线性回归模型:

  • 线性假设:确认自变量与因变量之间的线性关系,即假设目标变量可以通过特征的线性组合来预测。

  • 模型选择:选择合适的线性回归模型,如普通最小二乘法(OLS)、岭回归、Lasso回归或梯度下降法等,根据数据集的大小和复杂度进行选择。

3. 模型训练

使用训练数据拟合模型:

  • 拟合模型:将选定的线性回归模型与标准化后的训练数据拟合,以确定模型参数(斜率和截距)。

  • 损失函数:定义损失函数,通常为均方误差(MSE)或平均绝对误差(MAE),用于衡量模型预测与实际观测值之间的误差。

4. 模型评估和调优

评估模型性能并进行必要的调优:

  • 模型评估:使用验证集或交叉验证技术评估模型的泛化能力,避免过拟合或欠拟合问题。

  • 参数调优:根据评估结果调整模型超参数(如正则化系数、学习率等),以提高模型的预测能力。

5. 预测和解释

使用训练好的模型进行预测并解释结果:

  • 预测:使用测试集或新数据进行预测,生成对目标变量的预测值。

  • 结果解释:分析模型的预测结果,理解每个特征对目标变量的影响程度(系数解释)。

6. 模型部署和监控

最后,将训练好的模型部署到生产环境,并定期监控模型的表现,以确保模型的稳定性和准确性。

这些步骤组成了实现线性回归的完整过程,每一步都需要仔细处理和验证,以保证模型的有效性和可靠性。

我们以 scikit-learn为例来实现线性回归模型,具体步骤如下所示:

1. 宏观理解

代码主要依赖于以下几个步骤:

  • 加载房屋数据并进行预处理。
  • 使用随机梯度下降(SGD)线性回归模型训练数据。
  • 对模型进行评估,并可视化预测结果与真实值的比较。

2. 详细步骤

导入必要的库

import numpy as np
import matplotlib.pyplot as plt
from sklearn.linear_model import SGDRegressor
from sklearn.preprocessing import StandardScaler
from lab_utils_multi import load_house_data
from lab_utils_common import dlc
  • numpy:用于数值计算和数组操作。
  • matplotlib.pyplot:用于绘图。
  • SGDRegressor:Scikit-Learn 中的随机梯度下降线性回归模型。
  • StandardScaler:用于数据标准化,将特征缩放到均值为0,方差为1的标准正态分布。
  • load_house_datadlc:从自定义工具包中导入,用于加载房屋数据和其他通用工具。

加载和预处理数据

# 加载数据
X_train, y_train = load_house_data()
X_features = ['size(sqft)', 'bedrooms', 'floors', 'age']

# 数据标准化
scaler = StandardScaler()
X_norm = scaler.fit_transform(X_train)
  • load_house_data():加载房屋数据,返回特征 X_train 和目标值 y_train
  • X_features:特征的名称列表。
  • StandardScaler:创建一个标准化的对象 scaler,并使用 fit_transform() 方法对 X_train 进行标准化处理,得到 X_norm

训练 SGD 回归模型

# 创建并训练SGD回归模型
sgdr = SGDRegressor(max_iter=1000)
sgdr.fit(X_norm, y_train)
  • 创建 SGDRegressor 对象 sgdr,并设定最大迭代次数 max_iter=1000
  • 使用 fit() 方法训练模型,传入标准化后的特征数据 X_norm 和目标数据 y_train

进行预测

# 使用 sgdr.predict() 进行预测
y_pred_sgd = sgdr.predict(X_norm)

# 使用 np.dot() 和 w, b 进行预测
y_pred = np.dot(X_norm, w_norm) + b_norm
  • sgdr.predict():使用训练好的模型 sgdr 对标准化后的特征 X_norm 进行预测,得到 y_pred_sgd
  • np.dot() 和模型参数 w_norm, b_norm:手动计算预测值 y_pred,通过特征 X_norm 和模型参数进行点积计算。

评估模型和输出结果

# 检查两种预测方法是否匹配
print(f"prediction using np.dot() and sgdr.predict match: {(y_pred == y_pred_sgd).all()}")

# 打印训练集上的预测值和目标值
print(f"Prediction on training set:\n{y_pred[:4]}")
print(f"Target values \n{y_train[:4]}")
  • 检查两种预测方法是否匹配,打印是否完全一致的布尔值。
  • 打印训练集的前四个预测值 y_pred 和目标值 y_train

可视化预测结果

# 绘制预测值和目标值相对于原始特征的散点图
fig, ax = plt.subplots(1, 4, figsize=(12, 3), sharey=True)
for i in range(len(ax)):
    # 绘制目标值的散点图
    ax[i].scatter(X_train[:, i], y_train, label='target')
    ax[i].set_xlabel(X_features[i])
    # 绘制预测值的散点图
    ax[i].scatter(X_train[:, i], y_pred, color=dlc["dlorange"], label='predict')

# 设置Y轴标签和图例
ax[0].set_ylabel("Price")
ax[0].legend()

# 设置标题
fig.suptitle("target versus prediction using z-score normalized model")

# 显示图像
plt.show()
  • 创建包含四个子图的图形 fig,每个子图显示一个特征与目标值和预测值的散点图。
  • 使用循环遍历每个子图 ax[i],分别绘制目标值和预测值的散点图。
  • dlc["dlorange"] 是颜色标识,用于标记预测值的散点。
  • 设置 Y 轴标签为 “Price”,添加图例和整体标题。
  • 最后,通过 plt.show() 显示图形。

这样,代码完成了加载数据、模型训练、预测和结果可视化的整个流程。完整代码如下所示:

import numpy as np
import matplotlib.pyplot as plt
from sklearn.linear_model import SGDRegressor
from sklearn.preprocessing import StandardScaler
from lab_utils_multi import load_house_data
from lab_utils_common import dlc

np.set_printoptions(precision=2)
plt.style.use('./deeplearning.mplstyle')

# 加载数据
X_train, y_train = load_house_data()
X_features = ['size(sqft)', 'bedrooms', 'floors', 'age']

# 数据标准化
scaler = StandardScaler()
X_norm = scaler.fit_transform(X_train)

# 创建并训练SGD回归模型
sgdr = SGDRegressor(max_iter=1000)
sgdr.fit(X_norm, y_train)

# 获取模型参数
b_norm = sgdr.intercept_
w_norm = sgdr.coef_

# 使用 sgdr.predict() 进行预测
y_pred_sgd = sgdr.predict(X_norm)

# 使用 np.dot() 和 w, b 进行预测
y_pred = np.dot(X_norm, w_norm) + b_norm

# 检查两种预测方法是否匹配
print(f"prediction using np.dot() and sgdr.predict match: {(y_pred == y_pred_sgd).all()}")

# 打印训练集上的预测值和目标值
print(f"Prediction on training set:\n{y_pred[:4]}")
print(f"Target values \n{y_train[:4]}")

# 绘制预测值和目标值相对于原始特征的散点图
fig, ax = plt.subplots(1, 4, figsize=(12, 3), sharey=True)
for i in range(len(ax)):
    # 绘制目标值的散点图
    ax[i].scatter(X_train[:, i], y_train, label='target')
    ax[i].set_xlabel(X_features[i])
    # 绘制预测值的散点图
    ax[i].scatter(X_train[:, i], y_pred, color=dlc["dlorange"], label='predict')
# 设置Y轴标签和图例
ax[0].set_ylabel("Price")
ax[0].legend()
# 设置标题
fig.suptitle("target versus prediction using z-score normalized model")
# 显示图像
plt.show()

举报

相关推荐

0 条评论