发新帖

CNN 模型为什可以在每个 filter 上学到不同的参数呀?

[复制链接]
263 1

快来加入 TensorFlowers 大家庭!

您需要 登录 才可以下载或查看,没有帐号?加入社区

x
模型是对称的,也就是说每个 filter 上面的参数其实都应该是一样的。
为什么 backward propagation 的时候会学到不同的参数呢?
我们要在训练的时候惩罚同样的参数吗?
isly831130已获得悬赏 10 金币

最佳答案

他會用 機率 初始化每個filter 並且每個filter對loss的影響會因為maxpooling 跟weights會有不同 gradient 也不一樣 做gradient descent 每個filter就會往不一樣的地方descent ...
本楼点评(0) 收起

精彩评论1

isly831130  TF荚荚  发表于 2018-4-17 11:42:25 | 显示全部楼层
他會用 機率 初始化每個filter 並且每個filter對loss的影響會因為maxpooling 跟weights會有不同 gradient 也不一樣  做gradient descent 每個filter就會往不一樣的地方descent
本楼点评(1) 收起
您需要登录后才可以回帖 登录 | 加入社区

本版积分规则

快速回复 返回顶部 返回列表