0
点赞
收藏
分享

微信扫一扫

深度学习之路三 将上一篇稍微通用的模型用sklearn代替

from sklearn.neural_network import MLPRegressor
import numpy as np

# 创建神经网络对象
# 使用adam优化器 adam是一种梯度下降算法
# 使用sgd优化器 adam是一种随机梯度下降算法
model = MLPRegressor(hidden_layer_sizes=(1), 
                   activation="tanh", 
                   solver='sgd', # admin
                   max_iter=100,
                   learning_rate_init=0.1)

inputs = np.array([[1.0, 2.0]])
labels = np.array([[1.0]])

# 拟合模型
model.fit(inputs, labels)

# 预测
y_pred = model.predict(inputs)

# 评估模型
mse = np.mean((y_pred - labels)**2)
print('均方误差:', mse)

通过这个实验我发现adam优化器并没有sgd好,  也就是说优化器对训练结果影响还是很大的

这是sgd优化器结果

深度学习之路三 将上一篇稍微通用的模型用sklearn代替_梯度下降算法

 

 已经非常接近0了

 



举报

相关推荐

0 条评论