
1
upczww 2017 年 8 月 5 日 via iPhone 默认就是 e 为底的
|
3
blankme 2017 年 8 月 5 日
为什么不写成 ln,这你要问博主,习惯而已。
|
5
Xs0ul 2017 年 8 月 5 日 via Android 1. 按我学的交叉熵一般以 2 为底,这个习惯来自信息论的信息熵的意义
2. 作为 loss,用 e 还是用 2 本质上没有区别,只是 loss 差一个常数倍 3. 我猜楼主想到了 2,但是疑惑在于在那一步求导里,只有其中一项会因为换个底数多一个常数倍,另一项没有。实际上再往上翻,推 log(1 - h) 的时候,已经当作 e 为底,yi xi 消失的常数系数在这里漏掉了。 4. 推公式方便来说还是以 e 为底吧,不然不小心就会疏忽掉系数。 |
6
rrfeng 2017 年 8 月 5 日
我记得是这样
ln -> e lg -> 10 log -> 要写底数 |
7
geelaw 2017 年 8 月 5 日 via iPhone
除非事先说明,否则 log 要么是以 e 为底,要么是需要写底数,要么是以任意一个大于 1 的数为底(底数不重要的情况)。
|
8
HowardMei 2017 年 8 月 5 日 via Android
原原本本对数函数的导数公式啊
|
9
HowardMei 2017 年 8 月 5 日 via Android [logf(x)]'=f'(x)/f(x) 是很常用的求导公式,你设 g(x)=log f(x),则 f(x)=e^g(x),代入验证看看。
当然,是有限度成立的,信息熵函数恰好满足这个条件而已,且这里的 log 就是自然对数。 |