发新帖

《白手起家》之指数函数、softmax

[复制链接]
463 4

快来加入 TensorFlowers 大家庭!

您需要 登录 才可以下载或查看,没有帐号?加入社区

x
本帖最后由 Tsingliu 于 2018-4-19 16:50 编辑

$$y = e^x$$ 自然常熟e为低的指数函数

假设原始的神经网络输出为$$y_1,y_2,...,y_n$$那么经过Softmax回归处理之后的输出为:

$$softmax(y)_i=\frac{e^{y_i}}{\sum_{j=1}^n e^{y_j}}$$

softmax的输出满足概率分布
本楼点评(0) 收起

精彩评论4

舟3332  TF芽芽  发表于 2018-4-19 20:39:21 | 显示全部楼层
softmax的输出满足概率分布
到这里就截至了。携带后续~
本楼点评(0) 收起
舟3332  TF芽芽  发表于 2018-4-20 14:42:17 | 显示全部楼层
如果楼主能顺便讲讲 cross-entropy 就再好不过了
本楼点评(0) 收起
M丶Sulayman  TF豆豆  发表于 2018-4-24 16:04:18 | 显示全部楼层
实质就是做了归一化处理,输出了可能性最大的那个label
本楼点评(0) 收起
jellycsc  TF荚荚  发表于 2018-4-25 05:28:36 | 显示全部楼层
需要补充的是 softmax 在 binary 情况下是和 logistic 效果一样
本楼点评(0) 收起
您需要登录后才可以回帖 登录 | 加入社区

本版积分规则

快速回复 返回顶部 返回列表