Why is the code for a neural network with a sigmoid so different than the code with softmax_cross_entropy_with_logits?
在使用神经网络进行分类时,据说:
- 您通常希望使用 softmax 交叉熵输出,因为这为您提供了每个可能选项的概率。
- 在只有两个选项的常见情况下,您想使用 sigmoid,除了避免冗余输出 p 和 1-p 之外,这是一样的。
TensorFlow中计算softmax交叉熵的方法似乎是这样的:
1 | cost = tf.reduce_mean(tf.nn.softmax_cross_entropy_with_logits(logits=prediction,labels=y)) |
所以输出可以直接连接最小化代码,很好。
我的 sigmoid 输出代码,同样基于各种教程和示例,大致如下:
1 2 | p = tf.sigmoid(tf.squeeze(...)) cost = tf.reduce_mean((p - y)**2) |
我原以为两者在形式上应该相似,因为它们以几乎相同的方式完成相同的工作,但上面的代码片段看起来几乎完全不同。此外,sigmoid 版本显式地平方误差,而 softmax 则没有。 (平方是在 softmax 的实现中发生的,还是发生了其他事情?)
上述其中一项是完全不正确的,还是它们需要完全不同的原因?
soft-max 交叉熵代价和 sigmoid 的平方损失代价是完全不同的代价函数。尽管它们似乎密切相关,但它并不是一回事。
如果工作被定义为"作为分类网络的输出层",那么这两个功能确实是"做同样的工作"。同样,您可以说"softmax 回归和神经网络在做同样的工作"。确实,这两种技术都在尝试对事物进行分类,但方式不同。
具有交叉熵代价的 softmax 层通常优于具有 l2-loss 的 sigmoid。具有交叉熵的 Softmax 有其自身的优点,例如输出层的梯度更强和对概率向量的归一化,而具有 l2-loss 的 sigmoid 的导数较弱。你可以在这本漂亮的书中找到很多解释。