发新帖

恢复带有batch normalization的模型后,模型性能和训练时有一点...

[复制链接]
173 0

快来加入 TensorFlowers 大家庭!

您需要 登录 才可以下载或查看,没有帐号?加入社区

x
本帖最后由 2h4dl 于 2019-4-19 13:14 编辑





训练时加入了batch normalization,
使用的是tf.layers.batch_normalization(conv, training=True)
训练:

    optimizer = tf.train.AdamOptimizer(learning_rate)
    update_ops = tf.get_collection(tf.GraphKeys.UPDATE_OPS)
    with tf.control_dependencies(update_ops):
        train_op = optimizer.minimize(loss, global_step=global_step)

保存:

 saver = tf.train.Saver(var_list=tf.global_variables(), max_to_keep=10)

我训练的过程中,会用测试集做验证,同时在外部重新导入当前的模型做测试,发现比训练时的性能有损失。

我知道答案 回答被采纳将会获得10 金币 + 5 金币 已有0人回答
本楼点评(0) 收起
您需要登录后才可以回帖 登录 | 加入社区

本版积分规则

主题

帖子

17

积分
快速回复 返回顶部 返回列表