Logistic 回归与 Softmax 回归在解决二分类问题的区别
在学习邱锡鹏老师的《神经网络与深度学习》的Softmax回归时,他在最后提出了此问题。
久经思考后,没想出来有什么区别。后来在看到以下这篇文章时,才理解了这个问题。
此处不在赘述Logistic 回归与 Softmax 回归的相关知识点,别人写的比我好。
总的来说,关于Logistic 回归与 Softmax 回归在解决二分类问题的区别,其实是二者在解决实际问题上不同应用场景所具备的条件而导致的区别,上面那篇文章中举了个例子,非常形象生动,就是以下的例子:
他写的很清楚,主要区别就是使用 SoftMax 回归或者是多个 Logistic 回归二分类解决多分类问题,取决于类别之间是否互斥。
邱老师问道的是解决二分类问题,思想是一样的。
总而言之,如果分类的类别是互斥的,使用Softmax 回归;若不是互斥的,是相互混杂的,则使用Logistic回归。