二分类的逻辑回归

对于二分类,我们将模型函数φ(z)定义为 sigmoid 函数,如下所示:

sigmoid 函数在范围[0,1]之间产生 y 的值。因此,我们可以使用y = φ(z)的值来预测类:如果y > 0.5则 class 等于 1,否则 class 等于 0。

正如我们在本章的前几节中所见,对于线性回归,可以通过查找最小化损失函数的参数来训练模型,并且损失函数可以是平方误差或均方误差的总和。对于逻辑回归,我们希望最大化可能性:L(w) = P(y|x, w, b)

但是,由于更容易使对数似然最大化,因此我们使用对数似然l(w)作为成本函数。因此,损失函数(J(w))被写为 -1(w),其可以使用诸如梯度下降的优化算法来最小化。

二元逻辑回归的损失函数在数学上写成如下:

其中φ(z)是 S 形函数。

我们将在下一节中实现这个损失函数。

results matching ""

    No results matching ""