from sklearn.neural_network import MLPRegressor import numpy as np # 创建神经网络对象 # 使用adam优化器 adam是一种梯度下降算法 # 使用sgd优化器 adam是一种随机梯度下降算法 model = MLPRegressor(hidden_layer_sizes=(1), activation="tanh", solver='sgd', # admin max_iter=100, learning_rate_init=0.1) inputs = np.array([[1.0, 2.0]]) labels = np.array([[1.0]]) # 拟合模型 model.fit(inputs, labels) # 预测 y_pred = model.predict(inputs) # 评估模型 mse = np.mean((y_pred - labels)**2) print('均方误差:', mse)
通过这个实验我发现adam优化器并没有sgd好, 也就是说优化器对训练结果影响还是很大的
这是sgd优化器结果
已经非常接近0了
标签:inputs,labels,一篇,稍微,adam,np,model,sgd,sklearn From: https://www.cnblogs.com/dzqdzq/p/17257175.html