tf.keras.layers.Sequential() #用来描述神经网络的结构,其中Sequential()里面的参数是用来描述从输入层到输出层的网络结构。
modnn = tf.keras.Sequential( [ tf.keras.layers.Dense(units = 10, #参数为正整数,表示输出空间的维数为10维 activation = 'relu'), #参数为激活函数类型,这里选择ReLU激活函数;activation = None 表示没有激活函数;默认情况下,系统不会使用任何激活函数 tf.keras.layers.Dropout(rate = 0.4), #rate = 0.4,表示将数据变成0的概率为0.4 tf.keras.layers.Dense(units = 1, activation = 'sigmoid') ] )
model.compile() #方法用于在配置训练方法时,告知训练时用的优化器、损失函数和准确率评测标准 #具体格式为: model.compile(optimizer = 优化器, loss = 损失函数, metrics = ["准确率”])
modnn.compile(loss = 'binary_crossentropy', #损失函数为 binary_crossentropy optimizer = 'rmsprop', #优化器为 rmsprop metrics = 'accuracy') #网络评价指标为 accuracy
modnn.fit(x, y, batch_size, epochs, verbose, validation_split, validation_data, validation_freq)
#x, y 分别表示训练集的输入和输出 #batch_size 表示训练一次网络所用的样本数 #epichs 表示迭代次数 #verbose 表示是否输出信息。verbose = '0'表示不输出信息, verbose = '1'表示输出信息。 #validation_split 表示(0,1)的浮点数,分割数据当验证数据,其它当训练数据 #validation_data 表示验证数据,该数据将覆盖validation_spilt设定的数据 #validation_freq 表示验证数据的epoch #callback 在每个training/epoch/batch结束时,可以通过回调函数Callbacks查看一些内部信息。常用的callback有EarlyStopping,当监视的变量停止改善时,停止训练,防止模型过拟合,其默认参数如下:
callback=callbacks.EarlyStopping(monitor='loss',min_delta=0.002,patience=0,mode='auto',restore_best_weights=False)
参考文章:
(8条消息) tensorflow中model.compile()用法_yunfeather的博客-CSDN博客
(8条消息) model.fit( )函数:训练模型_方如一的博客-CSDN博客
标签:layers,函数,keras,指令,ISL,tf,tensorflow,validation,verbose From: https://www.cnblogs.com/2277241439qaq/p/17416755.html