from sklearn.neural_network import MLPRegressor
import numpy as np
# 创建神经网络对象
# 使用adam优化器 adam是一种梯度下降算法
# 使用sgd优化器 adam是一种随机梯度下降算法
model = MLPRegressor(hidden_layer_sizes=(1),
activation="tanh",
solver='sgd', # admin
max_iter=100,
learning_rate_init=0.1)
inputs = np.array([[1.0, 2.0]])
labels = np.array([[1.0]])
# 拟合模型
model.fit(inputs, labels)
# 预测
y_pred = model.predict(inputs)
# 评估模型
mse = np.mean((y_pred - labels)**2)
print('均方误差:', mse)
通过这个实验我发现adam优化器并没有sgd好, 也就是说优化器对训练结果影响还是很大的
这是sgd优化器结果
已经非常接近0了